Государственное регулирование применения искусственного интеллекта

Лукичев П. М.1
1 Балтийский государственный технический университет \"ВОЕНМЕХ\" им. Д.Ф. Устинова

Статья в журнале

Вопросы инновационной экономики (РИНЦ, ВАК)
опубликовать статью | оформить подписку

Том 15, Номер 2 (Апрель-июнь 2025)

Цитировать эту статью:

Аннотация:
Технологии искусственного интеллекта после создания ChatGPT активно используются по всему миру. На сегодняшний день создание и применение моделей искусственного интеллекта стало основным объектом экономического противостояния, прежде всего, между КНР и США. В статье проводится сравнительный анализ комплекса мер государственного регулирования сферы искусственного интеллекта в отдельных странах. Данное регулирование выступает не только фактором, ограничивающим применение искусственного интеллекта, но и фактором его дальнейшего развития. КНР и США значительно опережают другие страны в создании и применении больших языковых моделей. Китай проделал самую значительную эволюцию мер государственного регулирования технологий искусственного интеллекта. Европейский союз, хотя и не производит собственные большие языковые модели, принял целый комплекс законов по регулированию применения искусственного интеллекта с точки зрения потребителей. В статье выявлена «дилемма приоритетов» государственного регулирования применения искусственного интеллекта. В межгосударственном регулировании раскрыты особенности «конформистского» и «альтернативного» подходов. Автор обосновывает положение о необходимости не только национальных, но и согласованных международных усилий по регулированию больших языковых моделей.

Ключевые слова: государственное регулирование, искусственный интеллект, большие языковые модели, экономические санкции, США, КНР

JEL-классификация: F51, L51, O32, O38



Введение

Данная статья является логическим продолжением первой статьи автора о государственном регулировании применения искусственного интеллекта (ИИ) [4]. В нынешнем исследовании будет применён страновой подход для оценки эволюции мер государственного регулирования и их эффективности. Особенностью сегодняшнего этапа является неравномерность прогресса моделей ИИ и мер по их регулированию. Так, в Евросоюзе практически нет собственных фирм в сфере искусственного интеллекта, но принят целый комплекс законов по использованию ИИ. В США напротив существуют наиболее передовые лаборатории по созданию больших языковых моделей, организована вся вертикаль компаний по производству компонентов для рынка искусственного интеллекта, но государственное регулирование находится на начальной стадии. Первые попытки межгосударственного регулирования сферы искусственного интеллекта пока не стали результативными ввиду существующих противоречий между странами, прежде всего, между США и КНР. Цель статьи: выявить возможности и ограничения существующих мер государственного регулирования применения искусственного интеллекта.

Необходимость государственного регулирования технологий искусственного интеллекта: международное или национальное?

Необходимость международного регулирования применения моделей искусственного интеллекта вытекает из нескольких причин. Во-первых, глобализация мировой экономики и конкуренция между ведущими экономическими центрами, - США и КНР, - обуславливают потребность в межгосударственных рамках регулирования сферы ИИ. Во-вторых, ещё Д. Эджертон (Edgerton D.) предупреждал, что только в техно националистических фантазиях… национальные изобретения способствуют национальному экономическому росту. В реальном мире глобальные инновации приводят к национальному росту, а национальные инновации приводят к глобальному росту [13]

В-третьих, существует значительный разрыв между странами в освоении моделей искусственного интеллекта. США и КНР значительно продвинулись в их освоении, в то время как страны ЕС и РФ в основном являются пользователями ИИ. Отсюда появление жёсткой конкуренции между национальными регуляторами, которая была названа «гонкой за регулирование искусственного интеллекта» [31] Поэтому возникают значительные отличия в подходах к регулированию технологий искусственного интеллекта. Данные различия проявляются в детализации государственного регулирования ИИ. Отметим также существование «дилеммы приоритетов» государственного регулирования применения искусственного интеллекта: или снижение рисков, включая экзистенциональные риски, от применения больших языковых моделей (БЯМ), или обеспечение прогресса в развитии национальной сферы искусственного интеллекта. В связи с этим некоторые ученые предупреждают, что сближение «неограниченной конкуренции между фирмами», участвующими в технологической гонке за вывод на рынок продуктов и услуг GenAI, с мотивацией государств предоставить своим собственным отечественным компаниям «конкурентное преимущество за счет мягкого регулирования» предвещает «гонку вниз по нормативным стандартам» [35]. Именно это и происходит в современных США, где «акселераторы» (сторонники безудержного развития искусственного интеллекта) победили «защитников» (сторонников учёта рисков ИИ), а президент Трамп в первый день в своей должности снял с разработчиков передовых LLMS (БЯМ) обязанность делиться информацией с американским правительством и затем в рамках дерегулирования ИИ пообещал партнёрам по Stargate (Звёздные врата), - проекте в полтриллиона долларов инвестиций частного сектора в американскую инфраструктуру искусственного интеллекта (ИИ), - сделать для них «настолько простым, насколько это возможно» строительство их проекта.

Регулирование технологий искусственного интеллекта имеет свою специфику по сравнению с другими направлениями государственного регулирования. Автор разделяет подход М. Гаске (Gaske М.), который отмечает, что схема регулирования может отдавать приоритет только двум из трёх целей при рассмотрении надзора за ИИ: (1) продвижение инноваций, (2) смягчение системного риска и (3) обеспечение чётких нормативных требований. [16].

Сегодня государственное регулирование технологий искусственного интеллекта осуществляется преимущественно на национальном уровне, а первые попытки создания межгосударственных форм регулирования вызвали больше вопросов, чем результатов. Поэтому в данной статье мы кратко охарактеризуем проблемы международного регулирования ИИ и сосредоточимся на реальном национальном регулировании (дерегулировании) технологий искусственного интеллекта.

При оценке межгосударственного регулирования ИИ выделяются два противоположных подхода. Первый из них может быть определён как «конформистский», второй – как «альтернативный».

Сторонники «конформистского» подхода сигналом значительного прогресса считают возникновение в середине 2023 г. первой волны многосторонних инициатив в области международного управления сферой искусственного интеллекта. Среди них выделяют, - UK AI Safety Summit’s Bletchley Declaration, the International Code of Conduct for Organizations Developing Advanced AI Systems produced by the G7’s Hiroshima AI Process, and the Partnership on AI’s Guidance for Safe Foundation Models (Декларация Блетчли британского саммита по безопасности ИИ, Международный кодекс поведения организаций, разрабатывающих передовые системы ИИ, разработанный в рамках Хиросимского процесса ИИ «Большой семерки», и Партнёрство по руководству ИИ для моделей безопасного фундамента). Ценность этих инициатив в том, что они установили совместные обязательства среди участников по устранению выявленных передовых рисков ИИ и продвижению социально полезного использования ИИ; они инициировали процессы международного сотрудничества в области оценки и смягчения рисков; они добились создания нескольких национальных институтов безопасности ИИ; и они подчеркнули настоятельную необходимость сделать безопасность ИИ глобальным приоритетом [15], [17], [24]. Если обратиться к реальности, то нетрудно заметить, что участниками этих инициатив были в основном страны OECD (ОЭСР – Организация экономического сотрудничества и развития), в них ни участвовали ни Китай, ни Россия, ни многие развивающиеся страны. По сути, это был «междусобойчик» клуба развитых стран и попытка выдать свои цели за цели глобального развития.

Сторонники альтернативного подхода подчеркивают, что первая волна международных инициатив в области политики и управления ИИ пагубно сузила давние дискуссии об ответственном и этичном использовании искусственного интеллекта до ограниченного набора преимущественно технических вопросов, связанных с «безопасностью ИИ». Это означало, что вместо прямого противостояния непосредственным угрозам искусственного интеллекта, гражданские, социальные, политические и юридические права и экологическая устойчивость, вызванные безответственной массовой коммерциализацией систем GenAI, обсуждение политики и управления сместилось в сторону моделей, ориентированных на согласование ИИ, тестирование моделей и отчётность, оценку возможностей, надёжность системы, и мониторинг рисков [19]. Джина Хелфрик (Gina Helfric) верно отмечала: «Я утверждаю, что принятие термина “frontier AI” («пограничный ИИ») вызывает ассоциации с колониальным мышлением, ещё больше усиливая пагубную динамику отношений между горсткой влиятельных западных компаний, которые производят современные модели генеративного искусственного интеллекта, и населением «глобального Юга», которое с наибольшей вероятностью пострадает в результате разработки и внедрения этих технологий ИИ». [18]

Автор поддерживает данный подход и считает, что первая волна международных инициатив привела к «подмене тезиса». Они, по сути, поддержали легитимность существующих крупных технологических практик бессистемного выпуска нерегулируемых систем «чёрного ящика» в общественное достояние вместо того, чтобы продвигать принятие предварительных мер управления для защиты прав и интересов пострадавших людей до наступления потенциально вредных последствий [8]. Кроме того, они продемонстрировали, что управленческая деятельность в области искусственного интеллекта была неэффективной и отвлекающей, удовлетворяя интересы в дерегулировании крупных технологических компаний, не сумела создать жёсткого нормативного контроля, необходимого для устранения ощутимых рисков и вреда, управления сложной материальной реальностью глобальных цепочек создания стоимости в области ИИ, и вызывает дальнейшее укрепление наследия политической, экономической и социокультурной гегемонии Глобального Севера. [26 Ryan-Mosley, 2023], [37 Vallor S., Luger, 2023], [32 Terzis P., 2023]. Таким образом, можно сделать вывод, что международные инициативы первой волны не столько разрешили глобальный кризис регулирования применения генеративного искусственного интеллекта, сколько создали новые проблемы. Успехи Китая в создании эффективных больших языковых моделей показывают, что без него международное регулирование ИИ будет неполным и недостаточным.

Эволюция государственного регулирования

искусственного интеллекта в КНР

Государственное регулирование технологий искусственного интеллекта началось в Китайской Народной республике с 2017 года. В плане Государственного совета Китая по ИИ от 2017 года была установлена последовательность целей управления искусственным интеллектом и сроков их исполнения. Согласно плану, «к 2020 году Китай будет... изначально устанавливать этические нормы, политику и правила ИИ в некоторых областях. К 2025 году в Китае будут созданы начальные законы и правила искусственного интеллекта, этические нормы и системы политики, а также сформированы возможности оценки и контроля безопасности ИИ. К 2030 году Китай разработает более всеобъемлющие законы и правила искусственного интеллекта, а также этические нормы и систему политики». [38]. Сейчас, в начале 2025 г., видно, что этот план чётко и последовательно реализуется, обеспечивая КНР лидирующие позиции в создании и применении технологий искусственного интеллекта. Для реализации данного плана в Китае был принят целый ряд законов и программ. Среди ключевых выделим следующие. С целью включения этики в разработку ИИ были разработаны этические нормы в отношении исследований, проектирования, применения и использования ИИ [10]. В 2021 году была опубликована Белая книга о надёжном искусственном интеллекте, в которой подчёркивается важность справедливости, подотчетности и прозрачности разработки ИИ, а также даются рекомендации правительству, компаниям и отраслям о том, как сделать искусственный интеллект надёжным [9].

Государственное регулирование сферы ИИ складывалось в Китае постепенно и представляет собой комплекс целей и мер по их реализации. В обобщённом виде китайские правила имеют три структурных сходства: выбор алгоритмов в качестве отправной точки; создание инструментов регулирования и бюрократических ноу-хау; а также вертикальный и итеративный подход, который закладывает основу для краеугольного закона об искусственном интеллекте. [29, р. 115). План развития искусственного интеллекта на 2021-2025 годы является частью 14-го пятилетнего плана КНР.

Ключевой особенностью подхода КНР к управлению ИИ является ориентация на алгоритмы. Регулирование рекомендательных алгоритмов создало для регулирующих органов новый важный инструмент: реестр алгоритмов (算法备案系统, буквально «система хранения алгоритмов»). Реестр представляет собой онлайн-базу данных алгоритмов, которые имеют «свойства общественного мнения или . . . возможности социальной мобилизации». Разработчики этих алгоритмов обязаны предоставлять информацию о том, как их алгоритмы обучаются и применяются, в том числе на каких наборах данных обучается алгоритм. Они также обязаны заполнить «отчет о самооценке безопасности алгоритма» (算法安全自 评估报告. [29, р. 112]

Для государственного регулирования КНР применения технологий ИИ также характерны максимально возможное предупреждение рисков создаваемых больших языковых моделей и учёт мнений общественности при обсуждении уже принятых законов. Так, в августе 2023 г. Cyberspace Administration of China (“CAC”) (Администрация киберпространства Китая («CAC»), главный регулятор информационных интернет-услуг Китая), опубликовала Временные меры по администрированию служб генеративного искусственного интеллекта [30]. Эти «Временные меры» приостановили на несколько месяцев создание новых БЯМ, но позволили разработчикам больше сосредоточиться на предупреждении рисков и поиске нешаблонных технологий ИИ, что дало свой эффект к началу 2025 года в создании моделей DeepSeek.

О регуляторах в КНР стоит сказать особо. Чиновники, регулирующие сферу искусственного интеллекта, постоянно совершенствуются, не становясь в позу «Мы правы и всё». В ответ на ряд критических замечаний по первоначальному проекту «Временных мер» регулирующие органы внесли существенные изменения. Например, показатели аутентичности, точности, объективности и разнообразия создаваемого контента и данных были изменены с абсолютных на относительные — вместо того, чтобы диктовать строгие правила, теперь они просто требуют улучшений или усовершенствований.) Кроме того, ранее включенное требование к пользователям раскрывать свою настоящую личность было полностью отменено, что является явной победой как для технологических корпораций, так и для сторонников конфиденциальности. Протокол фильтрации генерируемого контента и оптимизации моделей также был смягчен, что обеспечивает более управляемые временные рамки. [6] Всё это свидетельствует о том, что регулирующие органы не остались глухи к отзывам, полученным в период общественного обсуждения.

Отметим также непрерывный процесс совершенствования системы регулирования искусственного интеллекта в Китае. Правила являются вертикальными и итеративными. Если Правительство считает изданное им постановление ошибочным или недостаточным, оно просто выпустит новое постановление, которое затыкает дыры или расширяет сферу применения, как это произошло с проектом постановления о генеративном ИИ, расширяющим меры глубокого синтеза. [29, р. 117]

В начале 2025 г. комплекс мер государственного регулирования искусственного интеллекта складывается из следующих основных элементов (в скобках год введения): Закон о кибербезопасности (Cybersecurity Law, 2017), Закон о защите персональных данных, 2021), Правила управления алгоритмическими рекомендациями, (2022), Этические нормы для ИИ (2021), Регулирование автономных систем и робототехники (2024), Регулирование глубоких подделок (Deepfakes, 2023)

Государственное регулирование (дерегулирование) искусственного интеллекта в США

Теоретическое обоснование американского подхода к регулированию использования искусственного интеллекта основано на работе Йонаса Шуэтта (Schuett Jonas), Он отмечал, что существующие определения ИИ не соответствуют наиболее важным требованиям к юридическим определениям и утверждал, что подход, основанный на оценке риска, был бы предпочтительнее. Вместо того, чтобы использовать термин искусственный интеллект, политики должны сосредоточиться на конкретных рисках, которые они хотят уменьшить. Требования к юридическим определениям можно лучше выполнить, определив основные источники соответствующих рисков: определенные технические подходы (например, обучение с подкреплением), приложения (например, распознавание лиц) и возможности (например, способность физически взаимодействовать с окружающей средой). [28]

США, а вслед за ними Великобритания и Израиль, склонны применять контекстно-ориентированный подход к государственному регулированию ИИ. Этот подход предполагает, что социальный вред, вызванный искусственным интеллектом, отражает существующие проблемы, когда ИИ заменяет или дополняет традиционные методологии. Даже если новый социальный вред возникает в конкретном контексте использования искусственного интеллекта, он предпочитает устранять его с помощью специальных правил. Таким образом, этот подход благоприятствует адаптации правовой системы к социальному ущербу в различных контекстах, а не принятию комплексного регулирования ИИ. [25].

Американский подход к государственному регулированию сферы искусственного интеллекта отличают три ярко выраженные особенности. Во-первых, это ориентация на интересы отрасли, на производителей больших языковых моделей. Главное – не затормозить избыточным регулированием развитие сферы ИИ. Отсюда фактическое выведение большой цифровой пятёрки и связанных с ними стартапов вообще из-под какого-либо регулирования. Следствием этого являются, например, нерешаемые годами проблемы интеллектуальной собственности на источники, используемые для машинного обучения. Здесь достаточно вспомнить иск газеты New York Times к OpenAi.

Вторая особенность – это регулирование сферы регулирования искусственного интеллекта на уровне штатов. Из последних по времени отметим закон штата Колорадо, запрещающий «алгоритмическую дискриминацию» в отношении потребителей на основе защищенных характеристик в перечисленных областях, а также активность законодателей штата Калифорния, которые в 2024 г. разработали и приняли десятки законопроектов, связанных с ИИ, направленных на наложение широкомасштабных обязательств, начиная от мер безопасности, прозрачности для потребителей, требований к отчётности, разъяснения гарантий конфиденциальности, защиты исполнителей и умерших знаменитостей и мер честности выборов. [7]

Только 30 октября 2023 г. был принят Федеральный указ 14110 «О безопасном, защищённом и заслуживающим доверия искусственном интеллекте» (Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence) [27]. Среди основных положений последнего выделяются: необходимость сообщать правительству США информацию о результатах тестирования безопасности систем ИИ; разработка стандартов; повышение безопасности персональных данных; запуск Национального ресурса исследований в области ИИ (National AI Research Resource); усиление международного сотрудничества» [5] В итоге на территории США образуется своеобразная мозаика регулирования искусственного интеллекта, состоящая как из законодательных мер федеральных властей, так и властей штатов.

В-третьих, политизированность государственного регулирования США, его направленность против других стран, прежде всего, КНР. Отсюда вытекает максимальная «закрытость» сферы искусственного интеллекта, особенно в сравнении с открытостью моделей Китая. Ещё одним направлением политизированности является резкая «смена курса» регулирования сферы искусственного интеллекта с избранием нового президента США. В первый день вступления в должность Трамп отменил указ Байдена от 30.10.2023 и вместо всеобъемлющего регулирования искусственного интеллекта федеральные агентства будут контролировать использование ИИ по «отраслевому» подходу. В рамках проводимый им макроэкономической политики «экономики предложения» и, следовательно, создания максимально выгодных условий для фирм, действующих на территории США, был поддержан для улучшения инфраструктуры сферы искусственного интеллекта четырехлетний проект строительства огромных центров обработки данных в Техасе.

Эффективность такого государственного регулирования сферы ИИ будет определяться результатами конкуренции с КНР.

Государственное регулирование применения искусственного интеллекта Евросоюзом

С 2020 года ЕС активно занимается законодательной деятельностью в области ИИ. Особенностью этой деятельности служит то, что Евросоюз практически не имеет собственных фирм в сфере искусственного интеллекта, но является вторым в мире потребителем продукции ИИ. Поэтому законотворческая деятельность ЕС в области искусственного интеллекта построена исключительно с точки зрения защиты прав покупателей и не учитывает трендов развития инновационного развития [14]. Кроме того, следует сопоставить размеры западноевропейских и американских компаний, подпадающих под регуляторную деятельность Евросоюза. В эпоху доминирования технологических гигантов стоимостью в триллионы долларов ни одна европейская фирма, начинавшая с нуля за последние 50 лет, сегодня не оценивается более чем в сто миллиардов (Spotify, музыкальный стриминговый сервис из Швеции, колеблется около этой отметки). [33].

С точки зрения трилеммы регулирования применения искусственного интеллекта М. Гаске (Gaske М.) в законодательстве ЕС практически отсутствует (1) продвижение инноваций, но чётко прописаны меры по (2) смягчению системного риска и (3) обеспечению чётких нормативных требований. [16].

Отметим, что отсутствие «серьёзных» национальных фирм-производителей подталкивает государства к самым странным экономическим решениям. Так, Япония уже приняла закон о том, что ИИ имеет право обучаться на любых данных, которые стали ему доступны [22]. Таким решением, ценность создания информации, интеллектуальной собственности сводится к нулю.

Регулирование искусственного интеллекта в других странах

В этом разделе мы в начале покажем специфику государственного регулирования ИИ в других государствах – потребителях больших языковых моделей, а затем обратимся к опыту Сингапура. Иногда цели регулирования представляют попытки правительств оказать помощь национальному бизнесу за счёт цифровых гигантов и остановки технологического прогресса. В качестве примера приведём, принятый в Австралии в 2021 году закон «Переговорный кодекс новостных СМИ» (“news media bargaining code”), который обязывал Google и Facebook платить новостным агентствам, когда результаты поиска или каналы социальных сетей ссылаются на их статьи. Аналогичные законы приняли Канада, Южная Африка, Великобритания, Бразилия. Практика применения в Канаде показала, что запрет на новости оказался губительным для национальных средств массовой информации, которым закон должен был помочь, а канадцы вынуждены были обмениваться скриншотами заголовков [23]. Аналогично, принятые ЕС в 2024 году Закон о цифровых рынках (The Digital Markets Act) и Закон об искусственном интеллекте (Artificial Intelligence Act) привели к тому, что Apple будет поставлять в эти страны упрощенный вариант iPhone без приложений с искусственным интеллектом. В обоих случаях от такого регулирования больше всего страдают конечные потребители.

В некоторых странах, как например в Сингапуре, государственное регулирование применения искусственного интеллекта, прошло значительную эволюцию за последние пять лет. Можно выделить в нём два этапа. Первый, когда в 2019 году появилась Рамочная модель регулирования искусственного интеллекта (The Model AI Governance Framework) [34], а через год - её обновление [20]. На этом этапе регулирование было направлено на традиционный ИИ. Акцент в Рамочной модели управления ИИ делался на принципах, которые лежат в основе регулирования – как применения, так и разработки искусственного интеллекта в Сингапуре - объяснимости, прозрачности, справедливости и человекоцентричности (англ. – human-centric) интеллектуальных систем. Последний принцип подвергается критике [2]. Хотя Рамочная модель регулирования искусственного интеллекта носила необязательный характер, многие технологические компании Сингапура добровольно взяли на себя обязательство руководствоваться её принципами и нормами. Второй этап государственного регулирования разработки и применения моделей ИИ осуществляется в Сингапуре в 2023–2024 гг. в связи с появлением генеративного искусственного интеллекта. Под последним понимаются большие языковые модели, такие как GPT-4, Gemini, Claude и LLaMA, способные генерировать текст, изображения или другие типы мультимедиа. В 2023 г. была организована дискуссия о прежних рисках применения искусственного интеллекта, таких как отсутствие объяснимости, предвзятость, неправильное использование, и возникших в связи с появлением БЯМ новых рисках, таких как галлюцинации, нарушение авторских прав, согласование ценностей [12]. Главная цель, которая ставилась здесь, это необходимость найти тщательный баланс между защитой пользователей и продвижением инноваций. 30 мая 2024 года была опубликована Модельная структура управления ИИ для генеративного ИИ. Формирование надежной экосистемы [21]. В ней выделены девять аспектов, которые предлагается рассмотреть в совокупности, чтобы создать надежную экосистему. Предлагаемые в Рамочной программе идеи направлены на дальнейшее развитие основных принципов подотчетности, прозрачности, справедливости, надежности и безопасности и требуют глобального сотрудничества в разработке политических подходов к прогрессу моделей искусственного интеллекта [21]

Выводы и будущие исследования

Введение национального государственного регулирования технологий искусственного интеллекта неизбежно подразумевает ряд ограничений на развитие моделей ИИ. Соответственно, страна (страны), которая не ввела таких ограничений, получает конкурентное преимущество.

Создание национальной системы государственного регулирования искусственного интеллекта (или США, или КНР) означает, что другие государства, приобретающие их модели ИИ, попадают в экосистему искусственного интеллекта США или в экосистему искусственного интеллекта КНР. На выбор любой страной той или иной экосистемы искусственного интеллекта будут влиять не столько два обычных экономических параметра, - качество и цены, - сколько третий параметр: политические предпочтения.

Соотношение сил между странами-конкурентами постоянно меняется и решающего преимущества не имеет ни одно государство. США попытались всячески сузить возможности развития искусственного интеллекта в КНР, введя за последние три гола целый ряд ограничений. Среди них сокращение США экспорта в Китай самых мощных и быстродействующих чипов для обучения моделей ИИ, лишение КНР доступа ко многим машинам, необходимым для производства заменителей. Кроме того, Китай действительно исключен из большинства многосторонних структур, сформированных избирательным западным членством, таких как G7, Совет Европы (СЕ) и Европейская комиссия, — не говоря уже о некоторых недавно созданных инициативах по противодействию китайскому влиянию в глобальном управлении ИИ [11].

После появления ChatGPT в ноябре 2022 года эволюция развития искусственного интеллекта происходила очень интенсивно, включая два новых качественных момента: Агенты искусственного интеллекта и «модели с рассуждением». Последние представляют собой модели ИИ, которые имеют своеобразное «мышление», разговаривая сами с собой, прежде чем дать ответ на запрос. В результате объективные оценки показывают в начале 2025 года, что отставание по качеству китайских моделей искусственного интеллекта от американских составляют недели, максимум – три месяца. Сэм Альтман, глава OpenAi, недавно писал: «(Относительно) легко скопировать то, что, как вы знаете, работает. Крайне сложно сделать что-то новое, рискованное и сложное, когда вы не знаете, сработает ли это» [36]. То есть запретительные меры США по отношению к Китаю в области искусственного интеллекта не дали явного эффекта. Напротив, они стимулировали поиск учеными КНР иных технологических решений в сфере ИИ, чем у американских лабораторий. Практика показала, что это возможно и что монополия США на создание больших языковых моделей была подорвана. Более того, по нашему мнению, сейчас происходит перелом в эволюции искусственного интеллекта. Если до начала 2025 года преобладала ориентация на технологические параметры создания лучших моделей ИИ горсткой передовых лабораторий, поддерживаемых цифровыми гигантами (OpenAI, Anthropic), то сейчас на первый план вышла экономика искусственного интеллекта [3].

Символом перелома стало создание китайской фирмой DeepSeek моделей «v3» и «r1», которые по качественным параметрам не уступают западным моделям, а стоят значительно дешевле. DeepSeek серией последовательно применяемых инноваций добилась того, что производство (создание) миллиардов параметров v3 заняло менее 3 млн чип-часов, при оценочной стоимости менее 6 млн долларов — примерно десятая часть вычислительной мощности и расходов, которые были потрачены на Llama 3.1. от фирмы Meta. Для обучения v3 потребовалось всего 2000 чипов, тогда как Llama 3.1 использовала 16 000. А из-за американских санкций чипы, которые использовала v3, были даже не самыми мощными. [36] Экономические параметры конкурентной борьбы в области ИИ, - качество и цена, - не могут рассматриваться изолированно друг от друга. Кроме того, в анализ цен следует включать постоянные издержки и переменные издержки. Первые в данном случае связаны с созданием большой языковой модели, вторые – с её эксплуатацией. На сегодняшний день видны разные результаты в применении экономического подхода «Издержки – Выгоды» к созданию больших языковых моделей Китаем и Америкой. Западные фирмы кажутся всё более расточительными с использованием чипов и, как следствие, с ценами на свою продукцию и услуги. Если сравнивать переменные издержки, то затраты на обслуживание китайской модели значительно дешевле. DeepSeek распределяет задачи между несколькими чипами более эффективно, чем её аналоги, и начинает следующий этап процесса до того, как предыдущий будет завершен. Это позволяет ему поддерживать работу чипов на полную мощность с небольшой избыточностью. Применительно к экономике искусственного интеллекта это аналогично преодолению недостатков поэтапного планирования, которое было, например, в NASA. В результате в феврале, когда DeepSeek начнёт позволять другим фирмам создавать сервисы, использующие v3, он будет взимать менее десятой части того, что Anthropic делает за использование Claude, своей большой языковой модели [36].

Означает ли это, что американский подход к созданию и использованию технологий искусственного интеллекта себя не оправдал? Конечно, нет. По многим технологическим параметрам и эксплуатационным свойствам американские модели ИИ опережают всех. Поэтому конкурентная борьба в сфере искусственного интеллекта, ведущая к удешевлению моделей ИИ и издержек на их эксплуатацию, улучшающая качество и разнообразие предоставляемых услуг, только разгорается. В результате пользователи во всём мире получат всё более значительные преимущества. Подход США к регулированию сферы искусственного интеллекта с приходом Трампа ориентирован на максимальное дерегулирование деятельности небольшого числа лабораторий, поддерживаемых цифровыми гигантами, на колоссальные размеры инвестиций в ИИ, на максимальную закрытость исследований, на политику ограничений и санкций против стран-конкурентов, прежде всего, КНР. Для подхода Китая характерны длительная последовательная эволюция государственного регулирования технологий искусственного интеллекта, экономическая децентрализация, существенно более низкие издержки на производство и эксплуатацию больших языковых моделей, максимальная открытость результатов исследований.

Следовательно, предпочтительность использования другими странами технологий искусственного интеллекта, произведённых в США, или произведённых в КНР, определяется и экономическими факторами, и политическими факторами. Кроме того, анализ опыта создания моделей ИИ показывает Индии или России по какому пути следует идти в производстве собственных моделей искусственного интеллекта.

Государственное регулирование применения искусственного интеллекта, как и в целом прогресс больших языковых моделей (БЯМ), находятся сейчас на перепутье. Идти ли по капиталоёмкому пути и концентрировать исследования в небольшом числе фирм, обеспечивая первенство в создании БЯМ, работая максимально закрыто, как это делают США, или идти по пути децентрализации экономики ИИ, снижению издержек создания больших языковых моделей и максимальной открытости, как это делает КНР? В какой мере модели, созданные DeepSeek, помогут другим государствам догонять вырвавшиеся вперёд КНР и США? Как пророчески отмечал несколько лет назад британский исследователь Роджер Бутл, то, что происходит сейчас, — это интенсификация целого ряда разработок, которая стала возможной благодаря усилению мощности компьютеров, расширению доступности данных и развитию способности к обучению систем искусственного интеллекта. Постепенный характер этих преобразований означает, что у правительства, компаний и отдельных лиц есть в запасе время — не время ничего не делать, а время подумать и внести по собственной инициативе различные изменения, готовясь к неизбежным переменам, которые в дальнейшем они вынуждены будут принять как данность. [1]

Для Российской Федерации это означает реальную возможность, используя модели с открытым кодом и «дешевые» чипы, вернуться на лидирующие позиции в инновационном росте экономики.


Источники:

2. Дремлюга Р.И. Основы национального регулирования применения искусственного интеллекта: опыт Сингапура // Азиатско-тихоокеанский регион: экономика, политика, право. – 2022. – № 1. – c. 214-224. – doi: 10.24866/1813-3274/2022-1/214-224.
3. Лукичев П.М., Чекмарев О.П. Экономика искусственного интеллекта: перспективы и риски. Motivtrud.ru. [Электронный ресурс]. URL: https://motivtrud.ru/PCost/research/ii20231.pdf (дата обращения: 02.02.2025).
4. Лукичев П.М. Государственное регулирование моделей искусственного интеллекта: необходимость и пределы макроэкономической политики // Вопросы инновационной экономики. – 2024. – № 4. – c. 1151-1168. – doi: 10.18334/vinec.14.4.121767.
5. Мамедьяров З.А. Регулирование искусственного интеллекта: первые шаги. Наука. Технологии. Инновации. Экспресс-информация. [Электронный ресурс]. URL: https://issek.hse.ru/mirror/pubs/share/886272540.pdf.
6. Abiri G., Huang Y. A red flag? China’s generative AI dilemma. Harvard journal of law & technology. [Электронный ресурс]. URL: https://jolt.law.harvard.edu/digest/a-red-flag-chinas-generative-ai-dilemma (дата обращения: 20.02.2025).
7. Anderson H., Reem N., Tadayyon. Raft of California AI Legislation Adds to Growing Patchwork of US Regulation. [Электронный ресурс] URL: https://www.whitecase.com/insight-alert/raft-california-ai-legislation-adds-growing-patchwork-us regulation#:~:text=Senate%20Bill%20942%3A%20California%20AI%20Transparency%20Act&text=This%20Act%20outlines%20requirements%20for,are%20permitted%20for%20public%20use (дата обращения 20.02.2025)
8. Britten A. News // Significance. – 2023. – № 6. – doi: 10.1093/jrssig/qmad086.
9. White Paper on Trustworthy Artificial Intelligence. CAICT and JD Explore Academy. [Электронный ресурс]. URL: http://www.caict.ac.cn/kxyj/qwfb/bps/202107/P020210709319866413974.pdf (дата обращения: 10.02.2025).
10. Centre for Security Artificial Intelligence Released. Cset.georgetown.edu. [Электронный ресурс]. URL: https://cset.georgetown.edu/publication/ethical-norms-for-new-generation (дата обращения: 10.02.2025).
11. Cheng J., Zeng J. Shaping AI’s future? China in global AI governance // Journal of Contemporary China. – 2023. – № 143. – p. 794-810. – doi: 10.1080/10670564.2022.2107391.
12. Discussion Paper on Generative AI: Implications for Trust and Governance. - Singapore. Infocomm Media Development Authority of Singapore (IMDA). Aicadium and AI Verify Foundation. [Электронный ресурс]. URL: https://aiverifyfoundation.sg/downloads/Discussion_Paper.pdf (дата обращения: 02.02.2025).
13. Edgerton D. The shock of the old: Technology and global history since 1900. - Oxford: Oxford University Press, 2007.
14. EU: Council gives final approval to AI Act. Dataguidance.com. [Электронный ресурс]. URL: https://www.dataguidance.com/news/eu-council-gives-final-approval-ai-act#:~:text=On%20May%2021%2C%202024%2C%20the,Intelligence%20(the%20AI%20Act) (дата обращения: 20.02.2025).
15. Garfinkel B., Anderljung M., Heim L., Trager R., Clifford B., Seger E. Goals for the Second AI Safety Summit. Centre for the Governance of AI. [Электронный ресурс]. URL: https://www.governance.ai/post/goals-for-the-second-ai-safety-summit (дата обращения: 20.02.2025).
16. Gaske M.R. Regulation Priorities for Artificial Intelligence Foundation Models. Scholarship.law.vanderbilt.edu. [Электронный ресурс]. URL: https://scholarship.law.vanderbilt.edu/jetlaw/vol26/iss1/2/ (дата обращения: 20.02.2025).
17. Guzik T.J., Sitek A. Global accord on the integration of artificial intelligence in medical science publishing: implications of the Bletchley Declaration // Cardiovascular Research. – 2023. – № 17. – p. 2681-2682. – doi: 10.1093/cvr/cvad170.
18. Helfrich G. The harms of terminology: why we should reject so-called “frontier AI” // AI and Ethics. – 2024. – doi: 10.1007/s43681-024-00438-1.
19. Leslie D., Perini A.M. Future Shock: Generative AI and the international AI policy and governance crisis // Harvard Data Science Review. – 2023. – № 5. – doi: 10.1162/99608f92.88b4cc98.
20. Model AI governance framework. Pdpc. gov.sg. [Электронный ресурс]. URL: https://www.pdpc. gov.sg/-/media/Files/PDPC/PDF-Files/Resource-for Organisation/AI/SGModelAIGovFra mework2.pdf (дата обращения: 20.02.2025).
21. Model AI Governance Framework for Generative AI. Fostering a Trusted Ecosystem. - Singapore. AI Verify Foundation. [Электронный ресурс]. URL: https://aiverifyfoundation.sg/wp-content/uploads/2024/05/Model-AI-Governance-Framework-for-Generative-AI-May-2024-1-1.pdf (дата обращения: 20.02.2025).
22. Mollick E., Mollick E. Co-Intelligence. – Random House UK. - 2024
23. No news is bad news. The Economist. [Электронный ресурс]. URL: https://www.economist.com/leaders/2024/05/16/canadas-law-to-help-news-outlets-is-harming-them-instead (дата обращения: 20.02.2025).
24. Oxford Analytica. UK AI Summit will promote some global cooperation. Emerald Expert Briefings. [Электронный ресурс]. URL: https://www.emerald.com/insight/content/doi/10.1108/oxan-db284110/full/html (дата обращения: 02.02.2025).
25. Park S. Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework // ArXiv. – 2023. – doi: 10.48550/arXiv.2303.11196.
26. Ryan-Mosley T. It’s time to talk about the real AI risks. MIT Technology Review. [Электронный ресурс]. URL: https://www.technologyreview.com/2023/06/12/1074449/real-ai-risks/ (дата обращения: 13.02.2025).
27. Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. A Presidential Document by the Executive Office of the President. [Электронный ресурс]. URL: https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence (дата обращения: 19.02.2025).
28. Schuett J. Defining the scope of AI regulations // Law, Innovation and Technology. – 2023. – № 1. – p. 60-82. – doi: 10.1080/17579961.2023.2184135.
29. Sheehan M. China’s AI regulations and how they get made. Horizons: Journal of International Relations and Sustainable Development. [Электронный ресурс]. URL: https://www.cirsd.org/files/000/000/010/82/21e461a985f43655b1731b3c1b50cdccb631afaf.pdf (дата обращения: 16.02.2025).
30. Shengchengshi Rengong, Zhineng Fuwu, Guanli Zanxing Banfa 生成式人工智能服务管理暂 行办法 [Interim Measures for Administration of Generative Artificial Intelligence Services]. St. Council Gaz. [Электронный ресурс]. URL: https://www.gov.cn/gongbao/2023/issue_10666/202308/content_6900864.htmlA (дата обращения: 20.02.2025).
31. Smuha N.A. From a ‘race to AI’to a ‘race to AI regulation’: regulatory competition for artificial intelligence // Law, Innovation and Technology. – 2021. – № 1. – p. 57-84. – doi: 10.1080/17579961.2021.1898300.
32. Terzis P. Law and the political economy of AI production // International Journal of Law and Information Technology. – 2023. – № 4. – p. 302-330. – doi: 10.1093/ijlit/eaae001.
33. The age of gunboat digital diplomacy. The Economist. [Электронный ресурс]. URL: https://www.economist.com/europe/2025/01/23/europe-faces-a-new-age-of-gunboat-digital-diplomacy (дата обращения: 20.02.2025).
34. The Model AI Governance Framework first edition. Ai.bsa.org. [Электронный ресурс]. URL: https://ai.bsa.org/wp-content/uploads/2019/09/Model-AI-Framework-First-Edition.pdf (дата обращения: 20.02.2025).
35. Trager R., Harack B., Reuel A., Carnegie A., Heim L., Ho L., Kreps S., Lall R., Larter O., Ó hÉigeartaigh S., Staffell S., Villalobos J.J., Villalobos J.J. International governance of civilian AI: A jurisdictional certification approach // ArXiv. – 2023. – doi: 10.48550/arXiv.2308.15514.
36. Uncomfortably close. The Economist. [Электронный ресурс]. URL: https://www.economist.com/briefing/2025/01/23/chinas-ai-industry-has-almost-caught-up-with-americas (дата обращения: 20.02.2025).
37. Vallor S., Luger E. A shrinking path to AI safety. Edinburgh Futures Institute. [Электронный ресурс]. URL: https://efi.ed.ac.uk/a-shrinking-path-to-safety-how-a-narrowly-technical-approach-to-align-ai-with-the-public-good-could-fail/ (дата обращения: 20.02.2025).
38. Webster G., Creemers R., Kania E., Triolo P. Full Translation: China’s “New Generation Artificial Intelligence Development Plan” (2017). Digichina.stanford.edu. [Электронный ресурс]. URL: https://digichina.stanford.edu/work/full-translation-chinas-new-generation-artificial-intelligence-development-plan-2017/ (дата обращения: 02.02.2025).

Страница обновлена: 26.03.2025 в 22:21:44