Государственное регулирование моделей искусственного интеллекта: необходимость и пределы макроэкономической политики

Лукичёв П.М.

Статья в журнале

Вопросы инновационной экономики (РИНЦ, ВАК)
опубликовать статью | оформить подписку

Том 14, Номер 4 (Октябрь-декабрь 2024)

Цитировать:
Лукичёв П.М. Государственное регулирование моделей искусственного интеллекта: необходимость и пределы макроэкономической политики // Вопросы инновационной экономики. – 2024. – Том 14. – № 4. – doi: 10.18334/vinec.14.4.121767.



Введение

Технологии искусственного интеллекта (ИИ) распространяются в экономике с нарастающей скоростью. Здравоохранение, маркетинг, образование, логистика представляют собой сферы, в которых успехи ИИ наиболее заметны. Значительная часть обязанностей, которые раньше выполняли в бизнес-процессах работники, переходит к большим языковым моделям. Это порождает риски экономики на микро- и на макроуровне. Стремление уменьшить риски использования технологий искусственного интеллекта в краткосрочном периоде и в долгосрочном периоде лежит в основе государственного регулирования ИИ. Поскольку прогресс в освоении моделей искусственного интеллекта протекает крайне неравномерно в отдельных странах, то и вопросы государственного регулирования ИИ развиваются тоже неравномерно, акцентируя внимание на разных проблемах. Цель статьи: проанализировать теоретические положения и практический опыт применения государственного регулирования алгоритмов искусственного интеллекта и выявить его «плюсы» и «минусы» для общества.

В данном исследовании мы основываемся на следующем определении искусственного интеллекта. «Искусственный интеллект – комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их» [1]. Государственное регулирование определяется нами как комплекс мер по обеспечению выполнения законов, вводимых государственными органами для поощрения или ограничения экономической деятельности путем установления цен, назначения стандартов и условий входа в отрасль [2, с. 19]

Необходимость регулирования рынков искусственного интеллекта

Создание LLMs (больших языковых моделей) в последние годы переживало процесс своего свободного становления. (своеобразного «романтизма»), действуя, в отличие от всех других отраслей экономики, без постоянного регулирования со стороны государства. Во многом это связано с отсутствием понимания у государственных органов того, как именно должно осуществляться воздействие на работу отрасли. Это очень необычная ситуация, поскольку со второй половины прошлого века во всех развитых странах мира государственное регулирование играет решающую роль в развитии национальных экономик. Следует согласиться с Лесли, Перини [3], которые отмечают, что международный кризис политики и управления в области искусственного интеллекта материализовался, в немалой степени, благодаря тому, что искусственное отсутствие практических и обязательных механизмов регулирования и управления, позволяющих контролировать проектирование, разработку и использование FM (“frontier AI” models («передовых моделей ИИ») и их последующих приложений, сочеталось с широко распространенными разногласиями. среди исследователей и представителей общественности, которые всё чаще выражают обеспокоенность по поводу рисков и вреда на системном уровне, возникающих в результате импульса промышленного масштабирования по принципу «двигайся быстрее и ломай» [3].

Кроме того, остаются нерешёнными прежние проблемы регулирования рынков искусственного интеллекта. Во-первых, доступ к данным может выступать в качестве входного барьера для создания новых конкурирующих сетей и для инвестирования в инновации новыми участниками рынка; это также усилит стимул к антиконкурентному поведению в неценовых измерениях, таких как сбор, извлечение и исключение данных. Во-вторых, возросшая способность отслеживать отдельных лиц позволяет использовать новые формы ценовой дискриминации. В-третьих, ожидается, что использование технологий ИИ приведёт к расширению случаев известных форм анти конкурентного поведения, таких как явный и молчаливый сговор и дискриминация [4] Отметим, что второе положение лежит в основе санкционного контроля между странами и между фирмами в XXI веке.

Кроме того, алгоритмическое регулирование, обладающее способностью расширять, укреплять и перераспределять власть, полномочия и ресурсы, а также способностью влиять на критически важные жизненные возможности людей, требует разработки механизмов обеспечения алгоритмической подотчетности. Оно способно, по сути, автоматизировать меры подталкивающей экономики и обеспечения общественными товарами. «Алгоритмическое регулирование относится к системам принятия решений, которые регулируют сферу деятельности с целью управления рисками или изменениями поведения посредством непрерывной вычислительной генерации знаний путем систематического сбора данных (в режиме реального времени на постоянной основе), исходящих непосредственно от многочисленных динамических компонентов, относящихся к регулируемой среде с целью идентификации и, при необходимости, автоматического уточнения (или оперативного уточнения) операций системы для достижения заранее заданной цели». [5]. Отметим, что за последние годы произошла эволюция понятий в изучении искусственного интеллекта. До 2022 г. исследователи преимущественно использовали термины «алгоритмическое принятие решений», «алгоритмическое регулирование», как в ранее приведенных статьях, то сейчас – преимущественно, «принятие решений искусственным интеллектом», «регулирование моделей искусственного интеллекта».

Необходимость введения государственного регулирования ИИ усиливается сегодня в связи с нарастающей значимостью проблемы. По мнению Goldman Sachs Research, прорывы в области генеративного искусственного интеллекта могут привести к радикальным изменениям в мировой экономике. По мере того, как инструменты, использующие достижения в области обработки естественного языка, проникают в бизнес и общество, они могут привести к увеличению мирового ВВП на 7% (или почти 7 триллионов долларов США) и росту производительности на 1,5 процентных пункта в течение 10-летнего периода. [6]. Одновременно по мере усиления мощностей больших языковых моделей увеличиваются и риски их применение. Это вызывает озабоченность ученых разработчиков искусственного интеллекта и общественности. Джеффри Хинтон (Geoffrey Hinton), пионер глубокого обучения, в 2023 г. покинул Google из-за обеспокоенности рисками искусственного интеллекта. 29 марта 2023 года Future of Life Institute (FLI) Институт будущего жизни (FLI) опубликовал открытое письмо, призывающее «все лаборатории искусственного интеллекта немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4» [7]. В письме, подписанном выдающимися учеными, генеральными директорами и другими светилами в области технологий, в том числе Йошуа Бенджио, Илоном Маском и Стивом Возняком (Yoshua Bengio, Elon Musk, Steve Wozniak), выражалось сожаление по поводу отсутствия «планирования и управления», которое характеризует несчастливое поведение «лабораторий искусственного интеллекта, запертых в условиях неблагополучия». Пока же продолжается гонка за контролем над созданием и внедрением ещё более мощных моделей ИИ, которые «никто – даже их создатели – не может понять, предсказать или надёжно контролировать». Между тем, как отмечалось в письме: «Мощные системы искусственного интеллекта, должны разрабатываться только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми». [7].

Обучение систем искусственного интеллекта остановлено не было, и это вылилось в конфликт «17 ноября» в компании OpenAI. Последняя была создана как некоммерческая организация с благородной миссией – гарантировать, что модели искусственного интеллекта принесут пользу «всему человечеству». Однако, как показало последующее развитие компании, - создателя ChatGPT и её более продвинутых версий, - стремление к получению прибыли возобладало над мерами безопасности создаваемых технологий. Как подчёркивали Хелен Тонер и Таша МакКоли, бывшие члены Совета OpenAI, общество не должно позволять, чтобы внедрение искусственного интеллекта контролировалось исключительно частными технологическими компаниями. Регулирование необходимо, чтобы укротить рыночные силы» [8].

На наш взгляд, здесь является некорректным сопоставление больших языковых моделей с предшествующими технологиями ввиду того, что возможности создаваемого общего искусственного интеллекта будут превышать способности человека. Поэтому уровень беспокойства, выражаемый многими ведущими учеными и специалистами в области ИИ по поводу технологии, которую они сами создают, сильно отличается от оптимистического отношения программистов и сетевых инженеров, которые разработали ранний Интернет. Как показало исследование, проведенное в 2023 году, средний эксперт по искусственному интеллекту даёт в 10 раз больший шанс экзистенциальной катастрофы (в которой выживет менее 5000 человек) из-за ИИ к 2100 году по сравнению со средним супер прогнозистом (3,9 % против 0,38%). [9].

С самого появления более шести десятилетий назад исследователей беспокоят «проблемы согласования», риск которых заключается в том, что ИИ может целеустремленно преследовать задачу, поставленную создателем, но в процессе сделать что-то вредное, чего не хотелось. То есть, используя экономическую терминологию, «внешние эффекты экономической деятельности» будут больше её основного эффекта. Образный пример этого был придуман Ником Бостромом (Nick Bostrom) и получил название «максимизатор скрепки». В этом мысленном эксперименте алгоритму искусственного интеллекта было поручено изготовить как можно больше скрепок. Однако такая неограниченная цель заставила ИИ принимать любые меры, необходимые для покрытия Земли фабриками по производству скрепок, истребляя, в том числе, человечество по пути. [10] Попытки самих компаний, создающих большие языковые модели, решить проблемы согласования свелись к использованию подходов «обучение с подкреплением на основе отзывов людей» и «красной команды». На практике применение обоих подходов по сути, аналогично работе тех же тестировщиков, но не для программного обеспечения, а для моделей искусственного интеллекта. Оно не смогло полностью решить проблемы. Почему? Как отмечал создатель кибернетики Н. Винер, чтобы эффективно предотвращать катастрофические последствия, наше понимание наших искусственных машин должно в целом развиваться наравне [шаг за шагом] с характеристиками машины. Из-за самой медлительности наших человеческих действий наш эффективный контроль над нашими машинами может быть сведен к нулю [11]. Государственное регулирование как раз и должно выступать в качестве того звена, которое обеспечит соразмерность развития моделей ИИ и человека.

После восстановления С. Альтмана в должности исполнительного директора OpenAI, курс на погоню за прибылью и пренебрежение безопасностью продолжался, что привело в июне 2024 г. к уходу всех специалистов по безопасности ИИ, включая соучредителя и главного научного сотрудника И. Суцкевера. Создателей моделей искусственного интеллекта больше всего тревожит проблема «интерпретируемости», то есть полного понимания того, как модели ИИ достигают своих результатов. Конструктор в начале создаёт программу в своей голове, а затем пишет код. Это позволяет ему объяснить как должна работать машина. В отличие от человека, модели машинного обучения программируют, по сути, сами себя, представляя «чёрный ящик» для исследователей. Как следствие, отсутствие значимого прогресса в интерпретируемости и заставляет ответственных создателей моделей говорить о том, что сфера искусственного интеллекта нуждается в государственном регулировании для предупреждения экзистенциональных рисков. В реальности логика бизнеса вела развитие сферы ИИ в противоположном направлении. Пример OpenAI не единичен: Microsoft весной 2023 г. уволила свою команду по этике искусственного интеллекта. В США и других странах «золотого миллиарда» обеспокоенность исследователей проигнорировали. Scott Galloway (Скотт Гэллоуэй), ведущий специалист в американском технологическом дискурсе, утверждает, что тормозить развитие генеративного искусственного интеллекта было бы опрометчиво, утверждая, что «Китай, Россия и Северная Корея не будут делать паузу». Ему вторит и директор по информационным технологиям Пентагона [12]. Примечательно, что Китай, напротив, фактически поддержал обеспокоенность ученых и специалистов ИИ. КНР с 15 августа 2023 г. ввела с помощью Администрации киберпространства Китая («АКК») (Cyberspace Administration of China (“CAC”), «Временные меры по администрированию служб генеративного искусственного интеллекта» [13], которыми сознательно замедлила развитие моделей ИИ в рамках более широкой стратегии страны по осторожному снижению рисков в различных технологических областях.

Модели искусственного интеллекта, в отличие от действий монополистов прошлого века, обладают свойством невидимости. Они оказывают огромное влияние на функционирование существующих рынков, на их границы и на способы взаимодействия фирм между собой и с потребителями. Это, однако, может означать новые угрозы для благосостояния потребителей, увеличивая риск новых неуловимых форм сговора и практики эксплуатации фирм [14]. Всё более активное применение больших языковых моделей порождает необходимость и более широкого государственного вмешательства не только в чисто экономические, но и в социальные вопросы. Как отмечал М. O’Коннелл, мы систематически наблюдаем, как технологии меняют всё к лучшему, и признаём, что приложение или платформы, или устройства делают мир немного удобнее. Если у нас есть надежда на будущее, если мы думаем, что у нас есть будущее, то это во многом основывается на том, чего мы можем добиться с помощью наших машин. [15] Значит государство своим регулированием должно поставить чёткие рамки развития технологий ИИ в интересах людей. Для обоснования необходимости государственного регулирования всё время используется термин «риск», однако, как отмечает Чемберлен, риск не является юридическим понятием, и возникает ряд вопросов относительно его значения в юридическом контексте [16].

Какие именно риски применения искусственного интеллекта вышли на первый план в двадцатые годы XXI века?

Прежде всего, речь идёт об “frontier AI” models («передовых моделях ИИ») — высокоэффективных базовых моделями, которые могут обладать опасными возможностями, достаточными для того, чтобы представлять серьёзную угрозу общественной безопасности. Например, они могут стать частью инструментов трудоустройства, которые будут ранжировать кандидатов на работу и отвечать за них, или систем администрации больниц, составляющих письма пациентам на основе материалов дела. Выгоды здесь для общества в виде высвобождения времени для профессионалов, чтобы они могли сосредоточиться на существенных вопросах – например, на фактическом лечении пациентов [17], [18]. В более широком плане, такие мультимодальные механизмы принятия решений могут способствовать более эффективному и более справедливому распределению ресурсов, то есть той проблеме, над решением которой экономисты постоянно работают. Однако, риски ошибочных выборов, когда модели ИИ предвзято отдают предпочтение полу, возрасту, расе кандидатов, и адекватного их устранения будут крайне дорого обходиться обществу. Именно «передовые модели искусственного интеллекта» представляют собой особую регулятивную проблему: во-первых, опасные возможности могут возникнуть неожиданно и быть трудно обнаруживаемыми; во-вторых, непросто надёжно предотвратить неправильное использование развернутой модели и причинение ею ущерба; в-третьих, трудно остановить широкое распространение возможностей модели поскольку они могут быстро распространяться, позволяя обходить меры безопасности. [19] Вмешательство государство здесь необходимо потому, что саморегулирование вряд ли обеспечит достаточную защиту от рисков, связанных с «передовыми моделями ИИ»

Политика государственного вмешательства в сферу искусственного интеллекта в последние два года активно продвигается самими участниками рынка. Если раньше представители Силиконовой долины всегда выступали против любых форм государственного регулирования, то с 2023 года его лоббируют такие цифровые гиганты, как Alphabet и Microsoft, а также создатели искусственного интеллекта, как Anthropic и Openai. Они на словах обеспокоены тем, что необузданная конкуренция заставит их действовать безрассудно, выпуская модели, которыми легко можно злоупотребить. Предложения цифровых гигантов по регулированию ИИ сводятся к нескольким ключевым положениям. Во-первых, они хотят, чтобы оно было узким и нацелено только на экстремальные риски. Однако сейчас, как было показано в статье П. М. Лукичёва, О. П. Чекмарева о долгосрочны рисках ИИ [20], это практически невозможно и их выявление в данное время скорее искусство, чем наука. Во-вторых, они хотят ограничить регулирование только наиболее мощными «передовыми» моделями (“frontier AI” models). Microsoft, среди прочих, призвала к введению режима лицензирования, требующего от фирм регистрировать модели, производительность которых превышает определенные пороговые значения. [21]. В-третьих, они настаивают на контроле над продажей мощных чипов, используемых для обучения llms. В-четвёртых, они требуют, чтобы компании, занимающиеся облачными вычислениями, информировали власти, когда клиенты обучают передовые модели. По нашему мнению, такое лицензирование (по пороговым значениям) и по ограничению продаж мощных чипов создадут Суперлигу игроков в сфере искусственного интеллекта, к которым должно быть особое отношение регуляторов. Технологическим основанием такой Суперлиги выступают необходимые вычислительные ресурсы и накопленные технические навыки. Кроме того, многие компании и правительства обвиняют цифровых гигантов в корыстной заинтересованности и в устранении возможных конкурентов при выдвижении таких предложений государственного регулирования искусственного интеллекта.

Новое регулирование может легко укрепить позиции действующих игроков и блокировать конкурентов, не в последнюю очередь потому, что крупнейшие разработчики моделей тесно сотрудничают с правительствами при написании свода правил. [22] Обвинения в своекорыстности «озабоченности» фирм Силиконовой долины наиболее полно выражено Ферри и Глорих (Ferri and Gloerich). Они предполагают, что некоторые повествования об «экзистенциальном риске» и вымирании человечества, вызванном искусственным интеллектом, которые претендуют на защиту «будущего человечества», стремились узаконить тех немногих, кто участвовал в обсуждениях безопасности ИИ и принятии решений. как представители и защитники «человечности» как таковой. Это привело к «нисходящему подходу к управлению», который поднял западные технологические элиты на позицию исключительного техно политического и эпистемического авторитета одновременно, в то же время обесценивая важность включения различных голосов и жизненного опыта остального мира в политику искусственного интеллекта и процессы управления [23].

Проблемы практического регулирования технологий искусственного интеллекта

Для предупреждения выявленных рисков при распространении больших языковых моделей (БЯЗ – LLMs) необходимо государственное регулирование, как на национальном, так и на глобальном уровне (даже в условиях сложной международной обстановки). Однако на практике очень трудно определить основные составные элементы такого регулирования.

Чьё это будет регулирование – США и примкнувших к ним стран, или оно будет построено на каких-то новых паритетных началах? Сейчас в мировой экономике выделяются три центра использования моделей искусственного интеллекта – США, КНР и ЕС. Другие страны, включая Россию, значительно отстают от первых двух. Пока меры государственного регулирования искусственного интеллекта принимаются исключительно на национальном уровне. Лидирует здесь и по времени начала регулирования, и по детализации конкретных мер регулирования КНР. В условиях блокировки деятельности Всемирной торговой Организации (ВТО) и начавшейся, по сути, новой «холодной войны» между США и Китаем принятие глобальных мер регулирования применения искусственного интеллекта представляется маловероятным. От «технологических войн» глобальная экономика и, прежде всего, противоборствующие страны, несут громадные потери. По оценке МВФ прекращение торговли высокими технологиями между конкурирующими блоками может стоить 1,2% мирового ВВП каждый год – около 1 трлн долларов. [24]. Кроме того, уменьшаются потенциальные выгоды, которые могла бы получить каждая страна, включая и США, и КНР, за счёт расширения глобального разделения труда.

Во-вторых, какими должны быть конкретные цели регулирования ИИ? Прежде всего, подчеркнём, что установление целей затруднено из-за «размытости» термина «искусственный интеллект». Как отмечал Стоун с коллегами, определить сферу регулирования ИИ особенно сложно, поскольку термин искусственный интеллект используется для очень многих разных систем — «это не что-то одно» [25]. Какие опасения реально лежат за призывами к регулированию? М. Камински выделяет три вида таких опасений. Санкционные опасения приводят к предложениям регулировать алгоритмы для защиты человеческого достоинства и автономии; оправдательные опасения предупреждают, что мы должны оценить легитимность алгоритмических рассуждений; а инструментальные проблемы приводят к призывам к регулированию для предотвращения последующих проблем, таких как ошибки и предвзятость [26, p. 1529] По её мнению, ни один подход к регулированию не может эффективно решить все три проблемы.

Американские ученые предлагают первоначальный набор стандартов безопасности при регулировании больших языковых моделей. К ним относятся проведение оценок рисков перед развертыванием; внешний анализ поведения модели; использование оценок рисков для обоснования решений о развертывании; а также мониторинг и реагирование на новую информацию о возможностях и использовании модели после ее развертывания. [19] В идеале, по мнению директора по информационным технологиям Goldman Sachs Марко Ардженти (Marco Argenti), целью государственного регулирования ИИ должна быть сильная нормативно-правовая база для поддержания безопасных и надежных рынков и защиты потребителей. В то же время в идеале правила должны быть построены таким образом, чтобы обеспечить процветание инноваций и поддерживать равные условия игры. Заглядывая в будущее, важно будет продолжать создавать среду, которая поощряет сотрудничество между игроками, поощряет открытый исходный код моделей, когда это необходимо, и разрабатывает соответствующие правила, основанные на принципах, призванные помочь управлять потенциальными рисками, включая предвзятость, дискриминацию, безопасность и надежность и конфиденциальность. [27]

В-третьих, что именно нужно регулировать? Определение сферы регулирования является наиболее сложной проблемой. Её правильное установление определяет, применимо ли регулирование в данном конкретном случае [28]. Сфера применения определяет, что регулируется (материальная сфера или сфера услуг), кто именно регулируется (например, личная сфера), где применяется регулирование (территориальная сфера: регион, национальный уровень, глобальный уровень) и когда оно применяется (временная сфера). По мнению Хакера и др., государственное регулирование искусственного интеллекта должно быть нацелено на Большие генеративные модели искусственного интеллекта (Large generative AI models - LGAIM), такие как ChatGPT, GPT-4 или Stable Diffusion в то время, как в ЕС регулирование нацелено на традиционные модели ИИ. Поэтому они предлагают новую терминологию для отражения цепочки создания стоимости искусственного интеллекта в настройках LGAIM, проводя различие между разработчиками LGAIM, развертывателями (deployers), профессиональными и непрофессиональными пользователями, а также получателями результатов LGAIM, и приводят доводы в пользу трех уровней обязательств, касающихся LGAIM (минимальные стандарты для всех LGAIM; обязательства высокого риска для случаев использования с высоким уровнем риска; сотрудничество в цепочке создания стоимости ИИ). [17 Hacker, р. 1112]

Поскольку развитие технологий искусственного интеллекта интенсифицировалось после введения ChatGPT в ноябре 2022 года и их возможности, а, следовательно, и риски возрастают с каждым месяцем, то и государственные регулирующие органы должны быть готовы быстро реагировать на возникающие изменения, а, с другой стороны, не торопиться с введением ограничением, которые окажутся ненужными или даже блокирующими развитие технологического прогресса. Всё это означает новый уровень требований к подготовке регуляторов, которым придётся учиться буквально «на лету». Государственные служащие должны быть готовы не только переобучаться, но и меняться в соответствии с требованиями современности. На наш взгляд, это требует введения новых программ подготовки (переподготовки) государственных служащих. Здесь необходимо использовать, прежде всего, успешный китайский опыт. Когда чиновники Cyberspace Administration of China (CAC) (Администрации киберпространства Китая (AКК) впервые встретились с компаниями, занимающимися искусственным интеллектом, чтобы обсудить представленные ими алгоритмы, они, как сообщается, «проявили мало понимания технических деталей», что вынудило представителей компаний «полагаться на сочетание метафор и упрощенного языка» [29, р. 116]. Для персонала регулирующих органов выявленное незнание означало необходимость учиться и узнавать то, что они не понимают в новых сложных технологиях, повышать свою квалификацию или нанимать новых специалистов, выстраивать отношения с ключевыми компаниями в сфере искусственного интеллекта, В результате за последние годы регулирующие органы КНР накопили опыт и создали ноу-хау в отношении технологий искусственного интеллекта и потенциальных мер вмешательства.

Законодатели США, а тем более ЕС и других стран, также не владеют полноценными знаниями о моделях искусственного интеллекта, и по их собственным словам, технологические инновации снова опережают возможности Вашингтона их регулировать. [30]. Таким образом, человеческий фактор сейчас играет негативную роль в регулировании больших языковых моделей. Такое фундаментальное несоответствие объясняется, на наш взгляд, тремя причинами. Во-первых, быстрым и непредсказуемым прогрессом технологий ИИ за которым не поспевают законодатели. Во-вторых, дефицитом знаний и практического опыта в области искусственного интеллекта среди государственной бюрократии. В-третьих. опасениями заблокировать развитие перспективной технологии в стране слишком жёсткими ограничениями.

Государственное регулирование должно учитывать национальную специфику развития сферы искусственного интеллекта. Прогресс новых технологий осуществляется сейчас через стартапы. В связи с этим проанализируем два принципиально разных подхода к их созданию, которые осуществляются в США и в КНР – стартапы. Начнём с цели. Большинство основателей стартапов в США стремятся масштабировать и продавать свои компании и использовать доходы для новых предприятий [31].

Таблица 1. Сравнение экосистем финансирования стартапов (Ожидаемые цели основателей стартапов в %) [31], [32].


Англия
Канада
США
КНР
Приобретение
58
60
58
14
Вывод своей компании на биржу посредством IPO
18
16
17
46
Сохранение частной компании
11
20
14
21
«Не знаю» или «Предпочитаю не говорить»
13
4
11
19
Англосаксонский подход означает важность того, антимонопольная политика облегчает основателям стартапов развитие и продажу своих компаний по высокой цене. В КНР же первичные публичные размещения акций собрали в пять раз больше денег, чем в Соединенных Штатах в первой половине 2023 года. Напротив, поскольку сейчас наблюдается вялый рынок IPO, то выкуп остаётся наиболее жизнеспособным вариантом выхода для большинства стартапов в США. Соотношение сил между странами меняется очень быстро, и если в начале 2023 г. КНР отставала от США в создании больших языковых моделей на десятилетие, то к середине 2024 г. отставание сократилось до года или менее. Различие структуры рынков искусственного интеллекта США и КНР огромно. Если в США компания OpenAI имеет несомненное технологическое лидерство, то в КНР сейчас существует более 100 моделей с более чем миллиардом параметров [33]. Структура рынка близкая к совершенной конкуренции, создала сильную ценовую конкуренцию, что крайне благоприятно для потребителей, включая бизнес-пользователей. Например, 6 мая High-Flyer, квантовый хедж-фонд, создавший собственную модель, снизил цены на последнюю версию до примерно 1% от суммы, которую Openai взимает за свою самую шикарную модель gpt-4 Turbo. 22 мая Alibaba, конгломерат электронной коммерции, снизил цены на свою флагманскую большую языковую модель (БЯМ – llm) на 97%. Несколько часов спустя Baidu объявила, что ее чат-боты Ernie будут бесплатными для всех бизнес-пользователей. Tencent, крупнейшая интернет-компания Китая, также бесплатно раздаёт одну из своих БЯМ. Данная тенденция ведёт к созданию мультипликативного эффекта для всего народного хозяйства Китая.

В то же время, ЕС стремится стать мировым центром регулирования технологий искусственного интеллекта, не имея своих технологий.

Национальная специфика сферы ИИ проявляется также в отношении к получению данных для обучения Больших языковых моделей. Например, Япония и Израиль занимают разрешительную позицию в отношении продвижения своих отраслей искусственного интеллекта. В США разные правообладатели данных занимают неодинаковые позиции. Getty Images подала в суд на Stability ai, фирму по созданию изображений, за несанкционированное использование её хранилища изображений. The New York Times подала в суд на Openai и Microsoft за нарушение авторских прав на миллионы статей. В то же время Reddit, сайт социальных сетей, и X (ранее Twitter) теперь взимают плату за доступ к своему контенту для обучения.

Каким будет государственное регулирование моделей искусственного интеллекта в ответ на разрастающиеся технологические вызовы покажет ближайшее будущее. Следует учесть, что «практика регулирования обычно является сложной, беспорядочной и крайне несовершенной; что решение сложных проблем предполагает сложное взаимодействие множества людей и организаций с конфликтующими или, по крайней мере, разными интересами, пониманиями и ценностями; и часто требует создания, адаптации и внедрения множества методов, которые могут пересекаться или не пересекаться друг с другом» [34]. Поэтому ключевым вопросом здесь является: должно ли преобладать национальное или наднациональное регулирование технологий ИИ?

Для предприятий развитых стран и России сейчас происходит благодаря технологиям искусственного интеллекта невидимая смена «бизнес-модели». Под последней понимается архитектура процесса и соответствующая организационная модель, с помощью которой компания участвует в конкурентной борьбе. Например, то, как страховщик обрабатывает заявление, как банк определяет размер автокредита или как ритейлер управляет сетью поставок. Сегодня в подавляющем большинстве случаев эти ключевые аспекты бизнеса вдруг стали очень архаичными. [35, с. 119] Их архаичность объясняется тем, что большинство бизнес-процессов у сегодняшних фирм сложились до появления цифровых технологий и, в частности, больших языковых моделей и цифровых двойников. Данная тенденция происходит сейчас не только на уровне предприятий, но и на уровне глобальной экономики. Новое Международное Разделение Труда (НМРТ) формируется с помощью технологий искусственного интеллекта не только естественным, конкурентным образом, но и за счёт введения санкций против стран-конкурентов (РФ, КНР). Фирма – это предприятие, действующее в рыночных условиях. Народное хозяйство складывается из многих тысяч национальных компаний и организаций. Чем лучше использование цифровизации на уровне фирмы, тем более конкурентна национальная экономика. Государственное регулирование использования моделей искусственного интеллекта должно не только уменьшать риски, но и создавать благоприятные условия для прогресса народного хозяйства. Именно поэтому применение технологий искусственного интеллекта, как технологии общего действия, на уровне каждого предприятия способно обеспечить перевод российской экономики с «инерционного пути развития» на «инновационный путь развития».

Таким образом, для эффективного применения технологий искусственного интеллекта на уровне народного хозяйства необходимы одновременные действия как на микроуровне, так и на макроуровне. На микроуровне предприятиям необходимо менять существующие бизнес-модели за счёт включения технологий ИИ, а на макроуровне нужно создавать систему государственного регулирования моделей искусственного интеллекта, способствующую прогрессу национальной экономики.

Выводы и будущие исследования

Необходимость государственного вмешательства в сферу искусственного интеллекта возрастает по мере появления всё более мощных больших языковых моделей. Выявлено свойство невидимости, которым обладают большие языковые модели и необходимость смены бизнес-модели современных компаний. Продвижение политики государственного регулирования моделей ИИ представителями Силиконовой долины вызовет создание Суперлиги игроков в сфере искусственного интеллекта, к которым будет особое отношение регуляторов и вызовет рост неравенства между странами. Поскольку человеческий фактор сейчас играет негативную роль, то важнейшим вопросом эффективности государственного регулирования на национальном уровне является подготовка государственных служащих, понимающих технологии ИИ и знающих современные способы их регулирования. Неодинаковый уровень развития моделей искусственного интеллекта в разных странах обусловил три различных подхода к государственному регулированию ИИ. Их анализу будет посвящена наша следующая статья.


Страница обновлена: 24.09.2024 в 12:12:54