Government regulation of artificial intelligence

Lukichev P. M.1
1 Балтийский государственный технический университет \"ВОЕНМЕХ\" им. Д.Ф. Устинова

Journal paper

Russian Journal of Innovation Economics (РИНЦ, ВАК)
опубликовать статью | оформить подписку

Volume 15, Number 2 (April-June 2025)

Citation:

Abstract:
Artificial intelligence technologies have been actively used around the world since the creation of ChatGPT. Today, the creation and application of artificial intelligence models has become the main object of economic confrontation, primarily between China and the United States. The article provides a comparative analysis of a set of measures of government regulation of the artificial intelligence sphere in individual countries. This regulation is not only a factor limiting the use of artificial intelligence, but also a factor in its further development. The People\'s Republic of China and the United States are far ahead of other countries in the creation and application of large language models. China has undergone the most significant development of government regulation of artificial intelligence technologies. The European Union, while not producing its own large language models, has passed a series of laws to regulate the use of artificial intelligence from a consumer perspective. The article reveals the \"dilemma of priorities\" of government regulation of artificial intelligence. In interstate regulation, the characteristics of conformist and alternative approaches are revealed. The author substantiates the position on the need for not only national but also coordinated international efforts to regulate large language models.

Keywords: government regulation, artificial intelligence, large language model, economic sanctions, USA, China

JEL-classification: F51, L51, O32, O38



Введение

Данная статья является логическим продолжением первой статьи автора о государственном регулировании применения искусственного интеллекта (ИИ) [4]. В нынешнем исследовании будет применён страновой подход для оценки эволюции мер государственного регулирования и их эффективности. Особенностью сегодняшнего этапа является неравномерность прогресса моделей ИИ и мер по их регулированию. Так, в Евросоюзе практически нет собственных фирм в сфере искусственного интеллекта, но принят целый комплекс законов по использованию ИИ. В США напротив существуют наиболее передовые лаборатории по созданию больших языковых моделей, организована вся вертикаль компаний по производству компонентов для рынка искусственного интеллекта, но государственное регулирование находится на начальной стадии. Первые попытки межгосударственного регулирования сферы искусственного интеллекта пока не стали результативными ввиду существующих противоречий между странами, прежде всего, между США и КНР. Цель статьи: выявить возможности и ограничения существующих мер государственного регулирования применения искусственного интеллекта.

Необходимость государственного регулирования технологий искусственного интеллекта: международное или национальное?

Необходимость международного регулирования применения моделей искусственного интеллекта вытекает из нескольких причин. Во-первых, глобализация мировой экономики и конкуренция между ведущими экономическими центрами, - США и КНР, - обуславливают потребность в межгосударственных рамках регулирования сферы ИИ. Во-вторых, ещё Д. Эджертон (Edgerton D.) предупреждал, что только в техно националистических фантазиях… национальные изобретения способствуют национальному экономическому росту. В реальном мире глобальные инновации приводят к национальному росту, а национальные инновации приводят к глобальному росту [13]

В-третьих, существует значительный разрыв между странами в освоении моделей искусственного интеллекта. США и КНР значительно продвинулись в их освоении, в то время как страны ЕС и РФ в основном являются пользователями ИИ. Отсюда появление жёсткой конкуренции между национальными регуляторами, которая была названа «гонкой за регулирование искусственного интеллекта» [31] Поэтому возникают значительные отличия в подходах к регулированию технологий искусственного интеллекта. Данные различия проявляются в детализации государственного регулирования ИИ. Отметим также существование «дилеммы приоритетов» государственного регулирования применения искусственного интеллекта: или снижение рисков, включая экзистенциональные риски, от применения больших языковых моделей (БЯМ), или обеспечение прогресса в развитии национальной сферы искусственного интеллекта. В связи с этим некоторые ученые предупреждают, что сближение «неограниченной конкуренции между фирмами», участвующими в технологической гонке за вывод на рынок продуктов и услуг GenAI, с мотивацией государств предоставить своим собственным отечественным компаниям «конкурентное преимущество за счет мягкого регулирования» предвещает «гонку вниз по нормативным стандартам» [35]. Именно это и происходит в современных США, где «акселераторы» (сторонники безудержного развития искусственного интеллекта) победили «защитников» (сторонников учёта рисков ИИ), а президент Трамп в первый день в своей должности снял с разработчиков передовых LLMS (БЯМ) обязанность делиться информацией с американским правительством и затем в рамках дерегулирования ИИ пообещал партнёрам по Stargate (Звёздные врата), - проекте в полтриллиона долларов инвестиций частного сектора в американскую инфраструктуру искусственного интеллекта (ИИ), - сделать для них «настолько простым, насколько это возможно» строительство их проекта.

Регулирование технологий искусственного интеллекта имеет свою специфику по сравнению с другими направлениями государственного регулирования. Автор разделяет подход М. Гаске (Gaske М.), который отмечает, что схема регулирования может отдавать приоритет только двум из трёх целей при рассмотрении надзора за ИИ: (1) продвижение инноваций, (2) смягчение системного риска и (3) обеспечение чётких нормативных требований. [16].

Сегодня государственное регулирование технологий искусственного интеллекта осуществляется преимущественно на национальном уровне, а первые попытки создания межгосударственных форм регулирования вызвали больше вопросов, чем результатов. Поэтому в данной статье мы кратко охарактеризуем проблемы международного регулирования ИИ и сосредоточимся на реальном национальном регулировании (дерегулировании) технологий искусственного интеллекта.

При оценке межгосударственного регулирования ИИ выделяются два противоположных подхода. Первый из них может быть определён как «конформистский», второй – как «альтернативный».

Сторонники «конформистского» подхода сигналом значительного прогресса считают возникновение в середине 2023 г. первой волны многосторонних инициатив в области международного управления сферой искусственного интеллекта. Среди них выделяют, - UK AI Safety Summit’s Bletchley Declaration, the International Code of Conduct for Organizations Developing Advanced AI Systems produced by the G7’s Hiroshima AI Process, and the Partnership on AI’s Guidance for Safe Foundation Models (Декларация Блетчли британского саммита по безопасности ИИ, Международный кодекс поведения организаций, разрабатывающих передовые системы ИИ, разработанный в рамках Хиросимского процесса ИИ «Большой семерки», и Партнёрство по руководству ИИ для моделей безопасного фундамента). Ценность этих инициатив в том, что они установили совместные обязательства среди участников по устранению выявленных передовых рисков ИИ и продвижению социально полезного использования ИИ; они инициировали процессы международного сотрудничества в области оценки и смягчения рисков; они добились создания нескольких национальных институтов безопасности ИИ; и они подчеркнули настоятельную необходимость сделать безопасность ИИ глобальным приоритетом [15], [17], [24]. Если обратиться к реальности, то нетрудно заметить, что участниками этих инициатив были в основном страны OECD (ОЭСР – Организация экономического сотрудничества и развития), в них ни участвовали ни Китай, ни Россия, ни многие развивающиеся страны. По сути, это был «междусобойчик» клуба развитых стран и попытка выдать свои цели за цели глобального развития.

Сторонники альтернативного подхода подчеркивают, что первая волна международных инициатив в области политики и управления ИИ пагубно сузила давние дискуссии об ответственном и этичном использовании искусственного интеллекта до ограниченного набора преимущественно технических вопросов, связанных с «безопасностью ИИ». Это означало, что вместо прямого противостояния непосредственным угрозам искусственного интеллекта, гражданские, социальные, политические и юридические права и экологическая устойчивость, вызванные безответственной массовой коммерциализацией систем GenAI, обсуждение политики и управления сместилось в сторону моделей, ориентированных на согласование ИИ, тестирование моделей и отчётность, оценку возможностей, надёжность системы, и мониторинг рисков [19]. Джина Хелфрик (Gina Helfric) верно отмечала: «Я утверждаю, что принятие термина “frontier AI” («пограничный ИИ») вызывает ассоциации с колониальным мышлением, ещё больше усиливая пагубную динамику отношений между горсткой влиятельных западных компаний, которые производят современные модели генеративного искусственного интеллекта, и населением «глобального Юга», которое с наибольшей вероятностью пострадает в результате разработки и внедрения этих технологий ИИ». [18]

Автор поддерживает данный подход и считает, что первая волна международных инициатив привела к «подмене тезиса». Они, по сути, поддержали легитимность существующих крупных технологических практик бессистемного выпуска нерегулируемых систем «чёрного ящика» в общественное достояние вместо того, чтобы продвигать принятие предварительных мер управления для защиты прав и интересов пострадавших людей до наступления потенциально вредных последствий [8]. Кроме того, они продемонстрировали, что управленческая деятельность в области искусственного интеллекта была неэффективной и отвлекающей, удовлетворяя интересы в дерегулировании крупных технологических компаний, не сумела создать жёсткого нормативного контроля, необходимого для устранения ощутимых рисков и вреда, управления сложной материальной реальностью глобальных цепочек создания стоимости в области ИИ, и вызывает дальнейшее укрепление наследия политической, экономической и социокультурной гегемонии Глобального Севера. [26 Ryan-Mosley, 2023], [37 Vallor S., Luger, 2023], [32 Terzis P., 2023]. Таким образом, можно сделать вывод, что международные инициативы первой волны не столько разрешили глобальный кризис регулирования применения генеративного искусственного интеллекта, сколько создали новые проблемы. Успехи Китая в создании эффективных больших языковых моделей показывают, что без него международное регулирование ИИ будет неполным и недостаточным.

Эволюция государственного регулирования

искусственного интеллекта в КНР

Государственное регулирование технологий искусственного интеллекта началось в Китайской Народной республике с 2017 года. В плане Государственного совета Китая по ИИ от 2017 года была установлена последовательность целей управления искусственным интеллектом и сроков их исполнения. Согласно плану, «к 2020 году Китай будет... изначально устанавливать этические нормы, политику и правила ИИ в некоторых областях. К 2025 году в Китае будут созданы начальные законы и правила искусственного интеллекта, этические нормы и системы политики, а также сформированы возможности оценки и контроля безопасности ИИ. К 2030 году Китай разработает более всеобъемлющие законы и правила искусственного интеллекта, а также этические нормы и систему политики». [38]. Сейчас, в начале 2025 г., видно, что этот план чётко и последовательно реализуется, обеспечивая КНР лидирующие позиции в создании и применении технологий искусственного интеллекта. Для реализации данного плана в Китае был принят целый ряд законов и программ. Среди ключевых выделим следующие. С целью включения этики в разработку ИИ были разработаны этические нормы в отношении исследований, проектирования, применения и использования ИИ [10]. В 2021 году была опубликована Белая книга о надёжном искусственном интеллекте, в которой подчёркивается важность справедливости, подотчетности и прозрачности разработки ИИ, а также даются рекомендации правительству, компаниям и отраслям о том, как сделать искусственный интеллект надёжным [9].

Государственное регулирование сферы ИИ складывалось в Китае постепенно и представляет собой комплекс целей и мер по их реализации. В обобщённом виде китайские правила имеют три структурных сходства: выбор алгоритмов в качестве отправной точки; создание инструментов регулирования и бюрократических ноу-хау; а также вертикальный и итеративный подход, который закладывает основу для краеугольного закона об искусственном интеллекте. [29, р. 115). План развития искусственного интеллекта на 2021-2025 годы является частью 14-го пятилетнего плана КНР.

Ключевой особенностью подхода КНР к управлению ИИ является ориентация на алгоритмы. Регулирование рекомендательных алгоритмов создало для регулирующих органов новый важный инструмент: реестр алгоритмов (算法备案系统, буквально «система хранения алгоритмов»). Реестр представляет собой онлайн-базу данных алгоритмов, которые имеют «свойства общественного мнения или . . . возможности социальной мобилизации». Разработчики этих алгоритмов обязаны предоставлять информацию о том, как их алгоритмы обучаются и применяются, в том числе на каких наборах данных обучается алгоритм. Они также обязаны заполнить «отчет о самооценке безопасности алгоритма» (算法安全自 评估报告. [29, р. 112]

Для государственного регулирования КНР применения технологий ИИ также характерны максимально возможное предупреждение рисков создаваемых больших языковых моделей и учёт мнений общественности при обсуждении уже принятых законов. Так, в августе 2023 г. Cyberspace Administration of China (“CAC”) (Администрация киберпространства Китая («CAC»), главный регулятор информационных интернет-услуг Китая), опубликовала Временные меры по администрированию служб генеративного искусственного интеллекта [30]. Эти «Временные меры» приостановили на несколько месяцев создание новых БЯМ, но позволили разработчикам больше сосредоточиться на предупреждении рисков и поиске нешаблонных технологий ИИ, что дало свой эффект к началу 2025 года в создании моделей DeepSeek.

О регуляторах в КНР стоит сказать особо. Чиновники, регулирующие сферу искусственного интеллекта, постоянно совершенствуются, не становясь в позу «Мы правы и всё». В ответ на ряд критических замечаний по первоначальному проекту «Временных мер» регулирующие органы внесли существенные изменения. Например, показатели аутентичности, точности, объективности и разнообразия создаваемого контента и данных были изменены с абсолютных на относительные — вместо того, чтобы диктовать строгие правила, теперь они просто требуют улучшений или усовершенствований.) Кроме того, ранее включенное требование к пользователям раскрывать свою настоящую личность было полностью отменено, что является явной победой как для технологических корпораций, так и для сторонников конфиденциальности. Протокол фильтрации генерируемого контента и оптимизации моделей также был смягчен, что обеспечивает более управляемые временные рамки. [6] Всё это свидетельствует о том, что регулирующие органы не остались глухи к отзывам, полученным в период общественного обсуждения.

Отметим также непрерывный процесс совершенствования системы регулирования искусственного интеллекта в Китае. Правила являются вертикальными и итеративными. Если Правительство считает изданное им постановление ошибочным или недостаточным, оно просто выпустит новое постановление, которое затыкает дыры или расширяет сферу применения, как это произошло с проектом постановления о генеративном ИИ, расширяющим меры глубокого синтеза. [29, р. 117]

В начале 2025 г. комплекс мер государственного регулирования искусственного интеллекта складывается из следующих основных элементов (в скобках год введения): Закон о кибербезопасности (Cybersecurity Law, 2017), Закон о защите персональных данных, 2021), Правила управления алгоритмическими рекомендациями, (2022), Этические нормы для ИИ (2021), Регулирование автономных систем и робототехники (2024), Регулирование глубоких подделок (Deepfakes, 2023)

Государственное регулирование (дерегулирование) искусственного интеллекта в США

Теоретическое обоснование американского подхода к регулированию использования искусственного интеллекта основано на работе Йонаса Шуэтта (Schuett Jonas), Он отмечал, что существующие определения ИИ не соответствуют наиболее важным требованиям к юридическим определениям и утверждал, что подход, основанный на оценке риска, был бы предпочтительнее. Вместо того, чтобы использовать термин искусственный интеллект, политики должны сосредоточиться на конкретных рисках, которые они хотят уменьшить. Требования к юридическим определениям можно лучше выполнить, определив основные источники соответствующих рисков: определенные технические подходы (например, обучение с подкреплением), приложения (например, распознавание лиц) и возможности (например, способность физически взаимодействовать с окружающей средой). [28]

США, а вслед за ними Великобритания и Израиль, склонны применять контекстно-ориентированный подход к государственному регулированию ИИ. Этот подход предполагает, что социальный вред, вызванный искусственным интеллектом, отражает существующие проблемы, когда ИИ заменяет или дополняет традиционные методологии. Даже если новый социальный вред возникает в конкретном контексте использования искусственного интеллекта, он предпочитает устранять его с помощью специальных правил. Таким образом, этот подход благоприятствует адаптации правовой системы к социальному ущербу в различных контекстах, а не принятию комплексного регулирования ИИ. [25].

Американский подход к государственному регулированию сферы искусственного интеллекта отличают три ярко выраженные особенности. Во-первых, это ориентация на интересы отрасли, на производителей больших языковых моделей. Главное – не затормозить избыточным регулированием развитие сферы ИИ. Отсюда фактическое выведение большой цифровой пятёрки и связанных с ними стартапов вообще из-под какого-либо регулирования. Следствием этого являются, например, нерешаемые годами проблемы интеллектуальной собственности на источники, используемые для машинного обучения. Здесь достаточно вспомнить иск газеты New York Times к OpenAi.

Вторая особенность – это регулирование сферы регулирования искусственного интеллекта на уровне штатов. Из последних по времени отметим закон штата Колорадо, запрещающий «алгоритмическую дискриминацию» в отношении потребителей на основе защищенных характеристик в перечисленных областях, а также активность законодателей штата Калифорния, которые в 2024 г. разработали и приняли десятки законопроектов, связанных с ИИ, направленных на наложение широкомасштабных обязательств, начиная от мер безопасности, прозрачности для потребителей, требований к отчётности, разъяснения гарантий конфиденциальности, защиты исполнителей и умерших знаменитостей и мер честности выборов. [7]

Только 30 октября 2023 г. был принят Федеральный указ 14110 «О безопасном, защищённом и заслуживающим доверия искусственном интеллекте» (Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence) [27]. Среди основных положений последнего выделяются: необходимость сообщать правительству США информацию о результатах тестирования безопасности систем ИИ; разработка стандартов; повышение безопасности персональных данных; запуск Национального ресурса исследований в области ИИ (National AI Research Resource); усиление международного сотрудничества» [5] В итоге на территории США образуется своеобразная мозаика регулирования искусственного интеллекта, состоящая как из законодательных мер федеральных властей, так и властей штатов.

В-третьих, политизированность государственного регулирования США, его направленность против других стран, прежде всего, КНР. Отсюда вытекает максимальная «закрытость» сферы искусственного интеллекта, особенно в сравнении с открытостью моделей Китая. Ещё одним направлением политизированности является резкая «смена курса» регулирования сферы искусственного интеллекта с избранием нового президента США. В первый день вступления в должность Трамп отменил указ Байдена от 30.10.2023 и вместо всеобъемлющего регулирования искусственного интеллекта федеральные агентства будут контролировать использование ИИ по «отраслевому» подходу. В рамках проводимый им макроэкономической политики «экономики предложения» и, следовательно, создания максимально выгодных условий для фирм, действующих на территории США, был поддержан для улучшения инфраструктуры сферы искусственного интеллекта четырехлетний проект строительства огромных центров обработки данных в Техасе.

Эффективность такого государственного регулирования сферы ИИ будет определяться результатами конкуренции с КНР.

Государственное регулирование применения искусственного интеллекта Евросоюзом

С 2020 года ЕС активно занимается законодательной деятельностью в области ИИ. Особенностью этой деятельности служит то, что Евросоюз практически не имеет собственных фирм в сфере искусственного интеллекта, но является вторым в мире потребителем продукции ИИ. Поэтому законотворческая деятельность ЕС в области искусственного интеллекта построена исключительно с точки зрения защиты прав покупателей и не учитывает трендов развития инновационного развития [14]. Кроме того, следует сопоставить размеры западноевропейских и американских компаний, подпадающих под регуляторную деятельность Евросоюза. В эпоху доминирования технологических гигантов стоимостью в триллионы долларов ни одна европейская фирма, начинавшая с нуля за последние 50 лет, сегодня не оценивается более чем в сто миллиардов (Spotify, музыкальный стриминговый сервис из Швеции, колеблется около этой отметки). [33].

С точки зрения трилеммы регулирования применения искусственного интеллекта М. Гаске (Gaske М.) в законодательстве ЕС практически отсутствует (1) продвижение инноваций, но чётко прописаны меры по (2) смягчению системного риска и (3) обеспечению чётких нормативных требований. [16].

Отметим, что отсутствие «серьёзных» национальных фирм-производителей подталкивает государства к самым странным экономическим решениям. Так, Япония уже приняла закон о том, что ИИ имеет право обучаться на любых данных, которые стали ему доступны [22]. Таким решением, ценность создания информации, интеллектуальной собственности сводится к нулю.

Регулирование искусственного интеллекта в других странах

В этом разделе мы в начале покажем специфику государственного регулирования ИИ в других государствах – потребителях больших языковых моделей, а затем обратимся к опыту Сингапура. Иногда цели регулирования представляют попытки правительств оказать помощь национальному бизнесу за счёт цифровых гигантов и остановки технологического прогресса. В качестве примера приведём, принятый в Австралии в 2021 году закон «Переговорный кодекс новостных СМИ» (“news media bargaining code”), который обязывал Google и Facebook платить новостным агентствам, когда результаты поиска или каналы социальных сетей ссылаются на их статьи. Аналогичные законы приняли Канада, Южная Африка, Великобритания, Бразилия. Практика применения в Канаде показала, что запрет на новости оказался губительным для национальных средств массовой информации, которым закон должен был помочь, а канадцы вынуждены были обмениваться скриншотами заголовков [23]. Аналогично, принятые ЕС в 2024 году Закон о цифровых рынках (The Digital Markets Act) и Закон об искусственном интеллекте (Artificial Intelligence Act) привели к тому, что Apple будет поставлять в эти страны упрощенный вариант iPhone без приложений с искусственным интеллектом. В обоих случаях от такого регулирования больше всего страдают конечные потребители.

В некоторых странах, как например в Сингапуре, государственное регулирование применения искусственного интеллекта, прошло значительную эволюцию за последние пять лет. Можно выделить в нём два этапа. Первый, когда в 2019 году появилась Рамочная модель регулирования искусственного интеллекта (The Model AI Governance Framework) [34], а через год - её обновление [20]. На этом этапе регулирование было направлено на традиционный ИИ. Акцент в Рамочной модели управления ИИ делался на принципах, которые лежат в основе регулирования – как применения, так и разработки искусственного интеллекта в Сингапуре - объяснимости, прозрачности, справедливости и человекоцентричности (англ. – human-centric) интеллектуальных систем. Последний принцип подвергается критике [2]. Хотя Рамочная модель регулирования искусственного интеллекта носила необязательный характер, многие технологические компании Сингапура добровольно взяли на себя обязательство руководствоваться её принципами и нормами. Второй этап государственного регулирования разработки и применения моделей ИИ осуществляется в Сингапуре в 2023–2024 гг. в связи с появлением генеративного искусственного интеллекта. Под последним понимаются большие языковые модели, такие как GPT-4, Gemini, Claude и LLaMA, способные генерировать текст, изображения или другие типы мультимедиа. В 2023 г. была организована дискуссия о прежних рисках применения искусственного интеллекта, таких как отсутствие объяснимости, предвзятость, неправильное использование, и возникших в связи с появлением БЯМ новых рисках, таких как галлюцинации, нарушение авторских прав, согласование ценностей [12]. Главная цель, которая ставилась здесь, это необходимость найти тщательный баланс между защитой пользователей и продвижением инноваций. 30 мая 2024 года была опубликована Модельная структура управления ИИ для генеративного ИИ. Формирование надежной экосистемы [21]. В ней выделены девять аспектов, которые предлагается рассмотреть в совокупности, чтобы создать надежную экосистему. Предлагаемые в Рамочной программе идеи направлены на дальнейшее развитие основных принципов подотчетности, прозрачности, справедливости, надежности и безопасности и требуют глобального сотрудничества в разработке политических подходов к прогрессу моделей искусственного интеллекта [21]

Выводы и будущие исследования

Введение национального государственного регулирования технологий искусственного интеллекта неизбежно подразумевает ряд ограничений на развитие моделей ИИ. Соответственно, страна (страны), которая не ввела таких ограничений, получает конкурентное преимущество.

Создание национальной системы государственного регулирования искусственного интеллекта (или США, или КНР) означает, что другие государства, приобретающие их модели ИИ, попадают в экосистему искусственного интеллекта США или в экосистему искусственного интеллекта КНР. На выбор любой страной той или иной экосистемы искусственного интеллекта будут влиять не столько два обычных экономических параметра, - качество и цены, - сколько третий параметр: политические предпочтения.

Соотношение сил между странами-конкурентами постоянно меняется и решающего преимущества не имеет ни одно государство. США попытались всячески сузить возможности развития искусственного интеллекта в КНР, введя за последние три гола целый ряд ограничений. Среди них сокращение США экспорта в Китай самых мощных и быстродействующих чипов для обучения моделей ИИ, лишение КНР доступа ко многим машинам, необходимым для производства заменителей. Кроме того, Китай действительно исключен из большинства многосторонних структур, сформированных избирательным западным членством, таких как G7, Совет Европы (СЕ) и Европейская комиссия, — не говоря уже о некоторых недавно созданных инициативах по противодействию китайскому влиянию в глобальном управлении ИИ [11].

После появления ChatGPT в ноябре 2022 года эволюция развития искусственного интеллекта происходила очень интенсивно, включая два новых качественных момента: Агенты искусственного интеллекта и «модели с рассуждением». Последние представляют собой модели ИИ, которые имеют своеобразное «мышление», разговаривая сами с собой, прежде чем дать ответ на запрос. В результате объективные оценки показывают в начале 2025 года, что отставание по качеству китайских моделей искусственного интеллекта от американских составляют недели, максимум – три месяца. Сэм Альтман, глава OpenAi, недавно писал: «(Относительно) легко скопировать то, что, как вы знаете, работает. Крайне сложно сделать что-то новое, рискованное и сложное, когда вы не знаете, сработает ли это» [36]. То есть запретительные меры США по отношению к Китаю в области искусственного интеллекта не дали явного эффекта. Напротив, они стимулировали поиск учеными КНР иных технологических решений в сфере ИИ, чем у американских лабораторий. Практика показала, что это возможно и что монополия США на создание больших языковых моделей была подорвана. Более того, по нашему мнению, сейчас происходит перелом в эволюции искусственного интеллекта. Если до начала 2025 года преобладала ориентация на технологические параметры создания лучших моделей ИИ горсткой передовых лабораторий, поддерживаемых цифровыми гигантами (OpenAI, Anthropic), то сейчас на первый план вышла экономика искусственного интеллекта [3].

Символом перелома стало создание китайской фирмой DeepSeek моделей «v3» и «r1», которые по качественным параметрам не уступают западным моделям, а стоят значительно дешевле. DeepSeek серией последовательно применяемых инноваций добилась того, что производство (создание) миллиардов параметров v3 заняло менее 3 млн чип-часов, при оценочной стоимости менее 6 млн долларов — примерно десятая часть вычислительной мощности и расходов, которые были потрачены на Llama 3.1. от фирмы Meta. Для обучения v3 потребовалось всего 2000 чипов, тогда как Llama 3.1 использовала 16 000. А из-за американских санкций чипы, которые использовала v3, были даже не самыми мощными. [36] Экономические параметры конкурентной борьбы в области ИИ, - качество и цена, - не могут рассматриваться изолированно друг от друга. Кроме того, в анализ цен следует включать постоянные издержки и переменные издержки. Первые в данном случае связаны с созданием большой языковой модели, вторые – с её эксплуатацией. На сегодняшний день видны разные результаты в применении экономического подхода «Издержки – Выгоды» к созданию больших языковых моделей Китаем и Америкой. Западные фирмы кажутся всё более расточительными с использованием чипов и, как следствие, с ценами на свою продукцию и услуги. Если сравнивать переменные издержки, то затраты на обслуживание китайской модели значительно дешевле. DeepSeek распределяет задачи между несколькими чипами более эффективно, чем её аналоги, и начинает следующий этап процесса до того, как предыдущий будет завершен. Это позволяет ему поддерживать работу чипов на полную мощность с небольшой избыточностью. Применительно к экономике искусственного интеллекта это аналогично преодолению недостатков поэтапного планирования, которое было, например, в NASA. В результате в феврале, когда DeepSeek начнёт позволять другим фирмам создавать сервисы, использующие v3, он будет взимать менее десятой части того, что Anthropic делает за использование Claude, своей большой языковой модели [36].

Означает ли это, что американский подход к созданию и использованию технологий искусственного интеллекта себя не оправдал? Конечно, нет. По многим технологическим параметрам и эксплуатационным свойствам американские модели ИИ опережают всех. Поэтому конкурентная борьба в сфере искусственного интеллекта, ведущая к удешевлению моделей ИИ и издержек на их эксплуатацию, улучшающая качество и разнообразие предоставляемых услуг, только разгорается. В результате пользователи во всём мире получат всё более значительные преимущества. Подход США к регулированию сферы искусственного интеллекта с приходом Трампа ориентирован на максимальное дерегулирование деятельности небольшого числа лабораторий, поддерживаемых цифровыми гигантами, на колоссальные размеры инвестиций в ИИ, на максимальную закрытость исследований, на политику ограничений и санкций против стран-конкурентов, прежде всего, КНР. Для подхода Китая характерны длительная последовательная эволюция государственного регулирования технологий искусственного интеллекта, экономическая децентрализация, существенно более низкие издержки на производство и эксплуатацию больших языковых моделей, максимальная открытость результатов исследований.

Следовательно, предпочтительность использования другими странами технологий искусственного интеллекта, произведённых в США, или произведённых в КНР, определяется и экономическими факторами, и политическими факторами. Кроме того, анализ опыта создания моделей ИИ показывает Индии или России по какому пути следует идти в производстве собственных моделей искусственного интеллекта.

Государственное регулирование применения искусственного интеллекта, как и в целом прогресс больших языковых моделей (БЯМ), находятся сейчас на перепутье. Идти ли по капиталоёмкому пути и концентрировать исследования в небольшом числе фирм, обеспечивая первенство в создании БЯМ, работая максимально закрыто, как это делают США, или идти по пути децентрализации экономики ИИ, снижению издержек создания больших языковых моделей и максимальной открытости, как это делает КНР? В какой мере модели, созданные DeepSeek, помогут другим государствам догонять вырвавшиеся вперёд КНР и США? Как пророчески отмечал несколько лет назад британский исследователь Роджер Бутл, то, что происходит сейчас, — это интенсификация целого ряда разработок, которая стала возможной благодаря усилению мощности компьютеров, расширению доступности данных и развитию способности к обучению систем искусственного интеллекта. Постепенный характер этих преобразований означает, что у правительства, компаний и отдельных лиц есть в запасе время — не время ничего не делать, а время подумать и внести по собственной инициативе различные изменения, готовясь к неизбежным переменам, которые в дальнейшем они вынуждены будут принять как данность. [1]

Для Российской Федерации это означает реальную возможность, используя модели с открытым кодом и «дешевые» чипы, вернуться на лидирующие позиции в инновационном росте экономики.


References:

Abiri G., Huang Y. A red flag? China’s generative AI dilemmaHarvard journal of law & technology. Retrieved February 20, 2025, from https://jolt.law.harvard.edu/digest/a-red-flag-chinas-generative-ai-dilemma

Britten A. (2023). News Significance. 20 (6). doi: 10.1093/jrssig/qmad086.

Centre for Security Artificial Intelligence ReleasedCset.georgetown.edu. Retrieved February 10, 2025, from https://cset.georgetown.edu/publication/ethical-norms-for-new-generation

Cheng J., Zeng J. (2023). Shaping AI’s future? China in global AI governance Journal of Contemporary China. 32 (143). 794-810. doi: 10.1080/10670564.2022.2107391.

Discussion Paper on Generative AI: Implications for Trust and Governance. - Singapore. Infocomm Media Development Authority of Singapore (IMDA)Aicadium and AI Verify Foundation. Retrieved February 02, 2025, from https://aiverifyfoundation.sg/downloads/Discussion_Paper.pdf

Dremlyuga R.I. (2022). Osnovy natsionalnogo regulirovaniya primeneniya iskusstvennogo intellekta: opyt Singapura [Basics of national regulation of artificial intelligence: the experience of singapore]. PACIFIC RIM: ECONOMICS, POLITICS, LAW Research and Socio-political Journal. 24 (1). 214-224. (in Russian). doi: 10.24866/1813-3274/2022-1/214-224.

EU: Council gives final approval to AI ActDataguidance.com. Retrieved February 20, 2025, from https://www.dataguidance.com/news/eu-council-gives-final-approval-ai-act#:~:text=On%20May%2021%2C%202024%2C%20the,Intelligence%20(the%20AI%20Act)

Edgerton D. (2007). The shock of the old: Technology and global history since 1900 Oxford: Oxford University Press.

Garfinkel B., Anderljung M., Heim L., Trager R., Clifford B., Seger E. Goals for the Second AI Safety SummitCentre for the Governance of AI. Retrieved February 20, 2025, from https://www.governance.ai/post/goals-for-the-second-ai-safety-summit

Gaske M.R. Regulation Priorities for Artificial Intelligence Foundation ModelsScholarship.law.vanderbilt.edu. Retrieved February 20, 2025, from https://scholarship.law.vanderbilt.edu/jetlaw/vol26/iss1/2/

Guzik T.J., Sitek A. (2023). Global accord on the integration of artificial intelligence in medical science publishing: implications of the Bletchley Declaration Cardiovascular Research. 119 (17). 2681-2682. doi: 10.1093/cvr/cvad170.

Helfrich G. (2024). The harms of terminology: why we should reject so-called “frontier AI” AI and Ethics. doi: 10.1007/s43681-024-00438-1.

Leslie D., Perini A.M. (2023). Future Shock: Generative AI and the international AI policy and governance crisis Harvard Data Science Review. (5). doi: 10.1162/99608f92.88b4cc98.

Lukichev P.M. (2024). Gosudarstvennoe regulirovanie modeley iskusstvennogo intellekta: neobkhodimost i predely makroekonomicheskoy politiki [Government regulation of artificial intelligence models: the need and limits of macroeconomic policy]. Russian Journal of Innovation Economics. 14 (4). 1151-1168. (in Russian). doi: 10.18334/vinec.14.4.121767.

Model AI Governance Framework for Generative AI. Fostering a Trusted Ecosystem. - SingaporeAI Verify Foundation. Retrieved February 20, 2025, from https://aiverifyfoundation.sg/wp-content/uploads/2024/05/Model-AI-Governance-Framework-for-Generative-AI-May-2024-1-1.pdf

Model AI governance frameworkPdpc. gov.sg. Retrieved February 20, 2025, from https://www.pdpc. gov.sg/-/media/Files/PDPC/PDF-Files/Resource-for Organisation/AI/SGModelAIGovFra mework2.pdf

No news is bad newsThe Economist. Retrieved February 20, 2025, from https://www.economist.com/leaders/2024/05/16/canadas-law-to-help-news-outlets-is-harming-them-instead

Oxford Analytica. UK AI Summit will promote some global cooperationEmerald Expert Briefings. Retrieved February 02, 2025, from https://www.emerald.com/insight/content/doi/10.1108/oxan-db284110/full/html

Park S. (2023). Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework ArXiv. doi: 10.48550/arXiv.2303.11196.

Ryan-Mosley T. It’s time to talk about the real AI risksMIT Technology Review. Retrieved February 13, 2025, from https://www.technologyreview.com/2023/06/12/1074449/real-ai-risks/

Safe, Secure, and Trustworthy Development and Use of Artificial IntelligenceA Presidential Document by the Executive Office of the President. Retrieved February 19, 2025, from https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence

Schuett J. (2023). Defining the scope of AI regulations Law, Innovation and Technology. 15 (1). 60-82. doi: 10.1080/17579961.2023.2184135.

Sheehan M. China’s AI regulations and how they get madeHorizons: Journal of International Relations and Sustainable Development. Retrieved February 16, 2025, from https://www.cirsd.org/files/000/000/010/82/21e461a985f43655b1731b3c1b50cdccb631afaf.pdf

Shengchengshi Rengong, Zhineng Fuwu, Guanli Zanxing Banfa 生成式人工智能服务管理暂 行办法 [Interim Measures for Administration of Generative Artificial Intelligence Services]St. Council Gaz. Retrieved February 20, 2025, from https://www.gov.cn/gongbao/2023/issue_10666/202308/content_6900864.htmlA

Smuha N.A. (2021). From a ‘race to AI’to a ‘race to AI regulation’: regulatory competition for artificial intelligence Law, Innovation and Technology. 13 (1). 57-84. doi: 10.1080/17579961.2021.1898300.

Terzis P. (2023). Law and the political economy of AI production International Journal of Law and Information Technology. 31 (4). 302-330. doi: 10.1093/ijlit/eaae001.

The Model AI Governance Framework first editionAi.bsa.org. Retrieved February 20, 2025, from https://ai.bsa.org/wp-content/uploads/2019/09/Model-AI-Framework-First-Edition.pdf

The age of gunboat digital diplomacyThe Economist. Retrieved February 20, 2025, from https://www.economist.com/europe/2025/01/23/europe-faces-a-new-age-of-gunboat-digital-diplomacy

Trager R., Harack B., Reuel A., Carnegie A., Heim L., Ho L., Kreps S., Lall R., Larter O., Ó hÉigeartaigh S., Staffell S., Villalobos J.J., Villalobos J.J. (2023). International governance of civilian AI: A jurisdictional certification approach ArXiv. doi: 10.48550/arXiv.2308.15514.

Uncomfortably closeThe Economist. Retrieved February 20, 2025, from https://www.economist.com/briefing/2025/01/23/chinas-ai-industry-has-almost-caught-up-with-americas

Vallor S., Luger E. A shrinking path to AI safetyEdinburgh Futures Institute. Retrieved February 20, 2025, from https://efi.ed.ac.uk/a-shrinking-path-to-safety-how-a-narrowly-technical-approach-to-align-ai-with-the-public-good-could-fail/

Webster G., Creemers R., Kania E., Triolo P. Full Translation: China’s “New Generation Artificial Intelligence Development Plan” (2017)Digichina.stanford.edu. Retrieved February 02, 2025, from https://digichina.stanford.edu/work/full-translation-chinas-new-generation-artificial-intelligence-development-plan-2017/

White Paper on Trustworthy Artificial IntelligenceCAICT and JD Explore Academy. Retrieved February 10, 2025, from http://www.caict.ac.cn/kxyj/qwfb/bps/202107/P020210709319866413974.pdf

Страница обновлена: 26.03.2025 в 22:21:44