Искусственный интеллект и регуляторные ожидания: государство и стейкхолдеры в создании образа будущего

Мухаметов Д.Р.1
1 Финансовый университет при Правительстве Российской Федерации

Статья в журнале

Креативная экономика (РИНЦ, ВАК)
опубликовать статью | оформить подписку

Том 19, Номер 8 (Август 2025)

Цитировать эту статью:

Эта статья проиндексирована РИНЦ, см. https://elibrary.ru/item.asp?id=83019289

Аннотация:
Статья посвящена регуляторным ожиданиям в контексте внедрения искусственного интеллекта. Регуляторные ожидания – представления относительно институционализации и будущих политических мер при регулировании искусственного интеллекта. Статья вносит вклад в решение проблемы определения стейкхолдеров политики для участия с государством в регулировании искусственного интеллекта. На основе данных социологических опросов анализируются три измерения регуляторных ожиданий: (1) соотношение ожиданий положительного и негативного влияния искусственного интеллекта, (2) ожидания относительно регулирования искусственного интеллекта государственными институтами, (3) ожидания относительно вовлечения стейкхолдеров в регулирование искусственного интеллекта. Результаты исследования демонстрируют, что на данный момент (1) наряду с положительным влиянием существуют определенные ожидания негативного влияния искусственного интеллекта, (2) преобладают негативные оценки компетенций и качества регулирования искусственного интеллекта государственными институтами, (3) среди стейкхолдеров политики наибольший уровень доверия при интеграции ИИ в общество имеют бизнес, некоммерческие организации, технологические эксперты. Новизна исследования заключается в определении роли государства и стейкхолдеров для совместного участия в регулировании искусственного интеллекта. Статья представляет интерес для исследователей социально-экономических и политических аспектов в сфере искусственного интеллекта.

Ключевые слова: искусственный интеллект, регулирование ИИ, регуляторные ожидания, стейкхолдеры, образ будущего, влияние ИИ

Финансирование:
Статья подготовлена по результатам исследований, выполненных за счёт бюджетных средств по государственному заданию Финансовому университету при Правительстве РФ.

JEL-классификация: O33, O38, Z18



Введение

Искусственный интеллект (далее – ИИ) становится центральным элементом образа будущего в контексте трансформации общества и экономики. С одной стороны, внедрение ИИ-инструментов связывается с масштабной автоматизацией, ростом производительности труда, снижением трансакционных издержек, что должно иметь положительные экономические эффекты. С другой стороны, технологии ИИ оцениваются в том числе с позиций негативных последствий в будущем: сокращение среднего класса вследствие автоматизации рабочих мест с высокой когнитивной нагрузкой, рост манипулирования и дипфейков, новые угрозы для кибербезопасности.

Таким образом, существует противоречие между признанием одной из ключевых ролей ИИ для образа будущего и неопределенностью социальных ожиданий от его внедрения. В данном случае социальные ожидания определяются как общие представления о границах и роли ИИ в обществе будущего.

В контексте социальных ожиданий отдельно выделяются регуляторные ожидания – представления относительно институционализации и будущих политических мер при регулировании ИИ. ИИ-технологии являются динамично развивающимся сектором, поэтому на данный момент отсутствуют устойчивые и широко распространенные механизмы их регулирования, а значительную часть дискуссий составляют регуляторные ожидания. Актуальность анализа регуляторных ожиданий также обусловлена их влиянием на поведение экономических агентов: несмотря на то, что регуляторные ожидания сопровождаются информационной асимметрией и отражают субъективные представления, они предопределяют восприятие технологический новаций и степень их адаптации. Понимание регуляторных ожиданий от внедрения ИИ имеет значение для выстраивания эффективной политической коммуникации и сохранения доверия институтам.

Регуляторные ожидания от внедрения ИИ уже стали предметом различных отечественных и зарубежных исследований, при этом можно выделить две группы исследований. Первая группа исследований посвящена анализу последствий внедрения ИИ, относительно которых необходимо регулирование. В работах выделяются создание Индустрии 5.0, автоматизация рутинной и низкокогнитивной деятельности, рост гибридных инструментов в сервисной экономике и государственном управлении [16, 17] (Qin et al., 2024; Saniuk et al., 2022), а также риски дезинформации и рост дипфейков [2] (Levashov, Grebnyak, 2025). Помимо этого, в исследованиях отмечаются положительные последствия внедрения ИИ, относительно которых необходимы регуляторные стимулы для бизнеса [1, 7, 20] (Kamarin, Tikhonyuk, 2025; Cai, 2024; Wang et al., 2025): создание новых образовательных экосистем, формирование новых моделей коммуникации «человек-машина», рост производительности труда, автоматизация и рост значимости аналитики данных. В обозначенных исследованиях подчеркивается разнообразие последствий внедрения ИИ, поэтому регуляторные ожидания отличаются фокусом на институциональную гибкость для одновременного предупреждения рисков и содействия инновациям.

Вторая группа исследований анализирует регуляторные ожидания ИИ в контексте соблюдения вопросов этики и морали – внимание акцентируется на этических основах, интеграция которых ожидается в систему регулирования ИИ [12, 13, 15, 21] (Kerr et al., 2020; Mennella et al., 2024; O'Sullivan et al., 2019; Zhou, 2023). В работах отмечается, что соблюдение этических норм и границ составляет значительную часть дискуссий о будущем ИИ, при этом на данный момент существует конфликт между соблюдением этики и закрытостью алгоритмов, применяемых в корпоративном и государственном секторе – решение данного конфликта рассматривается как приоритетная задача регулирования ИИ.

Текущие исследования показывают разнообразие регуляторных ожиданий, при этом внимание фокусируется на регулировании наиболее важных последствий, провоцируемых ИИ. Однако необходимо дополнение представленных исследований анализом регуляторных ожиданий относительно участия государства и стейкхолдеров политики в регулировании ИИ. Подобные регуляторные ожидания отражают прежде всего спектр агентов политики, вовлечение которых может быть эффективным для регулирования ИИ и предупреждения рисков: государственные институты, экспертное сообщество, медиа, некоммерческие организации (НКО) и др. Исследование регуляторных ожиданий в контексте участников регулирования позволит идентифицировать потенциальные конфликты, которые могут сопровождать процессы масштабного внедрения ИИ в управление и экономику.

Цель исследования – проанализировать регуляторные ожидания от внедрения ИИ в контексте участия различных агентов политики в процессе регулирования. Первоначально на базе данных социологических опросов рассматриваются три измерения регуляторных ожиданий: (1) соотношение ожиданий положительного и негативного влияния ИИ, (2) ожидания относительно регулирования ИИ государственными институтами, (3) ожидания относительно вовлечения стейкхолдеров в регулирование ИИ. На основе рассмотренных регуляторных ожиданий формулируются выводы об участии государства и стейкхолдеров в регулировании ИИ и создании образа будущего, значительная часть которого связана с технологическими изменениями.

Новизна исследования заключается в рассмотрении регуляторных ожиданий сквозь призму участия государства и стейкхолдеров: внимание фокусируется не на отраслевых последствиях внедрения ИИ, а на более масштабных представлениях о спектре агентов политики, участие которых необходимо для эффективного регулирования ИИ. В заключении формулируются основные роли государства и стейкхолдеров, которые могут способствовать росту доверия к регулированию ИИ.

Методология и методика исследования

Методология исследования основана на системном подходе, который фокусируется на состояниях и эффектах системы как результатах ее взаимодействия с окружающей средой. В рамках данной работы регуляторные ожидания от внедрения ИИ рассматриваются в качестве элемента окружающей среды, которые влияют на складывающиеся сценарии адаптации ИИ в экономике и обществе в целом.

Методика исследования включает анализ регуляторных ожиданий через изучение опросных данных в разных аспектах: опросные данные репрезентируют субъективные мнения и предпочтения относительно регулирования ИИ, поэтому подходят в том числе для анализа рассматриваемых вопросов. В исследовании используются разные опросные данные для анализа нескольких измерений регуляторных ожиданий:

1) для анализа ожиданий относительно позитивного и негативного влияния внедрения ИИ используются данные опроса Global Public Opinion on Artificial Intelligence [10];

2) для анализа качества текущего регулирования ИИ государственными институтами используются данные проекта Edelman Trust Barometer [6];

3) при исследовании участия стейкхолдеров в регулировании ИИ также используются данные проекта Edelman Trust Barometer [6].

Опросные данные используемых проектов включают результаты за 2024 год и географически охватывают 28 стран: Аргентина, Австралия, Бразилия, Великобритания, Канада, Китай, Колумбия, Германия, Индия, Индонезия, Ирландия, Испания, Италия, Кения, Малайзия, Мексика, Нидерланды, Нигерия, ОАЭ, Саудовская Аравия, Сингапур, США, Таиланд, Франция, Швеция, ЮАР, Южная Корея, Япония. Количество респондентов составляет 32 тыс. человек, 1150 респондентов из каждой страны, выборка репрезентативна по возрасту, полу, региональной принадлежности каждой страны. На основе анализа представленных опросных данных в исследовании определяются потенциал и роли для совместного участия государства и стейкхолдеров политики в регулировании ИИ.

Выбранные методология и методика исследования позволяют рассмотреть комплекс регуляторных ожиданий от внедрения ИИ, фокусируясь как на соотношении позитивных и негативных последствиях, так и на текущих параметрах доверия к агентам политики в контексте вопросов регулирования. Учет данных аспектов необходим для управления возникающими конфликтами и определения роли различных агентов политики в создании образа будущего.

Результаты исследования

В данной части исследования рассматриваются регуляторные ожидания от внедрения ИИ в нескольких измерениях: 1) соотношение ожиданий позитивного и негативного влияния ИИ, 2) ожидания относительно регулирования ИИ государственными институтами, 3) ожидания относительно вовлечения стейкхолдеров в регулирование ИИ.

1. Соотношение ожиданий позитивного и негативного влияния ИИ. Несмотря на то, что в данном исследовании рассматриваются регуляторные ожидания в контексте внедрения ИИ, необходимо включить в анализ соотношение ожиданий позитивного/негативного влияния ИИ, так как во многом они обуславливают запрос на более активное вмешательство агентов политики.

В контексте развития и внедрения ИИ основная неопределенность связана с его влиянием на экономику и общество в целом: с одной стороны, создаются картины технологического общества будущего с высоким уровнем роботизации и виртуальной экономикой, с другой, политическая риторика сопровождается актуализацией рисков и негативных последствий, к которым может привести масштабное внедрение ИИ. Данные ожидания фрагментированы и связаны с проекцией текущих позитивных или негативных социально-технологических тенденций на среднесрочную перспективу и являются основаниями для ожиданий более строгого регулирования или дерегулирования сферы ИИ.

На основе социологических данных возможно выявить общий нарратив ожиданий относительно положительного или негативного влияния ИИ. В таблице 1 представлены обобщенные данные этих ожиданий: данные отражают ответ респондентов на вопрос, будет ли влияние ИИ на экономику и общество положительным или негативным.

Таблица 1

Соотношение ожиданий позитивного и негативного влияния ИИ

Тип влияния
Поддержка респондентов (%)
Положительное влияние
51
Негативное влияние
36
Нейтральное влияние
13
Источник: составлено автором на основе данных Global Public Opinion on Artificial Intelligence 2024 [11].

Представленные данные демонстрируют, что на данный момент преобладают ожидания преимущественно положительного влияния ИИ, однако более трети респондентов считают, что влияние ИИ на общество и экономику будет иметь негативное влияние. Также часть респондентов не определились с точным ответом относительно положительного или негативного влияния ИИ.

Данные указывают на отсутствие в рассматриваемых экономиках широко разделяемого нарратива технооптимизма, в рамках которого технологии воспринимаются как инструмент и фактор безусловных положительных изменений, при этом совокупность нейтральных и негативных мнений говорит о наличии ожиданий рисков и непредвиденных последствий. В контексте регуляторных ожиданий представленные данные свидетельствуют о потенциальном запросе на более активное участие политических институтов в предупреждении и минимизации рисков внедрения ИИ – дальнейший анализ сопряжен с рассмотрением участия государственных институтов и стейкхолдеров в данном регулировании.

2. Ожидания относительно регулирования ИИ государственными институтами. Значительная доля ожиданий негативного влияния внедрения ИИ актуализирует вопрос регулирования новых технологий. Традиционно регуляторные инициативы в сфере инноваций носят догоняющий характер по мере возникновения необходимости управления новыми технологиями для недопущения роста рисков и негативных последствий. При этом регулирование технологий предполагает не только обозначение нормативных границ при внедрении технологий, но также создание стимулов для роста стоимости в высокотехнологичных секторах экономики.

В настоящий момент уже формируются государственные и региональные регуляторные инициативы в отношении ИИ, однако стоит отметить их неоднородность. С одной стороны, с 2024 года в Европейском Союзе действует «Закон об ИИ» (The EU Artificial Intelligence Act) [18], который отличается строгими ограничениями для сбора и обработки данных при создании ИИ-инструментов, а также предполагает больший контроль за использованием данных инструментов в социально чувствительных сферах, включая образование, здравоохранение, социальные услуги [14] (Novelli et al., 2024). В данном случае регулирования ставит в приоритет защиту данных пользователей и минимизацию рисков неравенства и дискриминации вследствие использования технологий ИИ. С другой стороны, существуют примеры максимального дерегулирования сферы ИИ: в частности, в США в мае 2025 года в рамках поправок к бюджету был добавлен пункт о запрете регулирования ИИ на уровне отдельных штатов в течение следующих 10 лет. В отличие от примера ЕС, в данном кейсе приоритет отдается созданию стимулов для бизнеса с целью ускоренного развития и внедрения ИИ для сохранения технологического лидерства. Помимо этого, в разных странах приняты рамочные законы об использовании ИИ или законы, запрещающие/ограничивающие применение отдельных нейросетей [19] (Walter, 2024). Обозначенные кейсы демонстрируют, что в настоящий момент сохраняется неопределенность в оценке влияния ИИ, поэтому отсутствуют ролевые регуляторные модели.

Регулирование ИИ государственными институтами находится на стадии формирования и в настоящий момент значительно варьируется. В совокупности с ранее отмеченным наличием негативных ожиданий о влиянии ИИ, важно рассмотреть оценки текущего регулирования ИИ и оценки компетентности государственных институтов в установлении эффективного регулирования. Эти данные позволят оценить регуляторные ожидания от действий государства как ключевого агента политики в вопросах регулирования технологий.

Оценки качества текущего регулирования ИИ представлены в таблице 2: данные отражают ответы респондентов на вопрос, является ли на их взгляд регулирование ИИ качественным.

Таблица 2

Оценка качества текущего регулирования ИИ в рамках опросных данных

«Является ли текущее регулирование ИИ качественным?»
%
Да
22
Нет
39
Затрудняюсь ответить
39
Источник: составлено автором на основе 2024 Edelman Trust Barometer Global Report [12].

Данные демонстрируют, что относительное большинство респондентов негативно оценивают текущее регулирование ИИ, при этом доля неопределенных ответов также превышает долю респондентов, оценивающих качество ИИ в положительном ключе.

На основе представленных данных можно сделать вывод о недостаточной эффективности существующих подходов к регулированию ИИ, при этом с точки зрения регуляторных ожиданий существует запрос на изменение политики государственных институтов.

В контексте регуляторных ожиданий важно также включить в анализ оценки компетентности государственных институтов в регулировании ИИ. Данные оценки представлены в таблице 3: данные отражают ответы респондентов на вопрос, считают ли они компетенции государственных институтов недостаточными для регулирования ИИ.

Таблица 3

Оценка компетентности государственных институтов в регулировании ИИ

Страна
Доля респондентов, считающих, что у государственных институтов недостаточно компетенций для регулирования ИИ (%)
Средний результат по 28 странам
59%
Великобритания, Таиланд
66%
Италия, Индия
65%
Китай, Австралия
64%
США, Канада, Ирландия, Малайзия, ЮАР, Малайзия, Мексика
63%
Япония
62%
Аргентина
61%
Германия, Индонезия, Нидерланды
60%
Нигерия
59%
Франция, Бразилия, Колумбия
56%
Швеция, Кения
55%
Южная Корея, Испания
53%
ОАЭ
51%
Сингапур
50%
Саудовская Аравия
45%
Источник: составлено автором на основе 2024 Edelman Trust Barometer Global Report [12].

Данные показывают, что в рассматриваемых странах большинство респондентов негативно оценивают компетентность государственных институтов для регулирования ИИ, при этом среднее значение по всем странам также отличается преимущественно отрицательным мнением о регуляторных компетенциях государственных институтов в сфере ИИ.

Обобщая результаты данного измерения регуляторных ожиданий, важно отметить, что текущая политика и компетентность государственных институтов рассматриваются как недостаточные для эффективного регулирования ИИ. При этом государственные институты остаются одними из ключевых агентов политики в создании «правил игры» в том числе в технологической сфере, поэтому с точки зрения повышения эффективности стоит говорить не о смене регуляторных ролей, а об изменении подходов к регулированию технологий. В частности, изменения могут быть реализованы через вовлечение стейкхолдеров политики – последующий анализ фокусируется на регуляторных ожиданиях относительно возможности интегрировать бизнес, экспертное сообщество, медиа, некоммерческие организации в политику регулирования ИИ.

3. Ожидания относительно вовлечения стейкхолдеров в регулирование ИИ. Современные подходы к регулированию технологий фокусируются на многосторонних переговорах с вовлечением различных стейкхолдеров – граждан, бизнеса, экспертов, разработчиков технологий, НКО [11] (Ivars-Baidal et al., 2024). В первую очередь вовлечение стейкхолдеров призвано учесть мнения и интересы различных агентов, участвующих в разработке и использовании технологий для недопущения неравенства и дискриминации. Дополнительно вовлечение стейкхолдеров используется с целью сократить асимметрию знаний между регуляторами и разработчиками технологий: вовлечение разработчиков предполагает повышение их подотчетности политическим институтам, а участие экспертов и других агентов политики – альтернативные оценки, а также более качественный учет рисков и непредвиденных последствий внедрения технологий.

Существующие примеры и практики обеспечения прозрачности при использовании алгоритмов при принятии решений предусматривают вовлечение стейкхолдеров политики [4] (Mukhametov, 2024): такие заинтересованные стороны, как граждане и независимые технические эксперты участвуют в тестировании алгоритмов, проверке данных, предложении способов минимизации рисков и недопущения роста неравенства. Однако данные практики реализуются в качестве пилотных или отраслевых проектов, вследствие чего перспективы вовлечения стейкхолдеров в вопросы ИИ и алгократии остаются актуальными для исследования.

Как было показано ранее, на текущий момент преобладают мнения, что государственные институты не обладают достаточными знаниями и навыками для регулирования ИИ. Поэтому представляется целесообразным рассмотреть возможность вовлечения заинтересованных сторон в сферу регулирования ИИ.

В первую очередь, существует разница в оценке возможностей различных стейкхолдеров интегрировать инновации в общество, что показано в таблице 4: данные отражают доверие респондентов различным заинтересованным сторонам в интеграции инноваций в общество, включая ИИ.

Таблица 4

Доверие стейкхолдерам в их возможности интегрировать инновации в общество

Стейкхолдеры
Уровень доверия (%)
Бизнес
59
НКО
54
Правительство
50
Медиа
48
Источник: составлено автором на основе 2024 Edelman Trust Barometer Global Report.

Представленные данные позволяют отметить, что бизнес и НКО имеют больший уровень доверия в их способности интегрировать технологии в общество, чем правительство. Медиа-организации, играющие роль основных ретрансляторов политики, имеют меньший уровень доверия в этом вопросе, однако в целом почти половина респондентов видят их значимыми участниками интеграции инноваций в общество.

Интерпретируя представленные данные, стоит отметить, что на данный момент бизнес является одним из основных источников инноваций, в том числе в сфере ИИ, что может объяснить более высокий уровень доверия респондентов. Кроме того, бизнес-организации, особенно в технологическом секторе, активно экспериментируют с инструментами обратной связи и учетом пользовательского опыта при разработке корпоративных систем, что также является фактором роста доверия к ним как медиаторам инноваций [3, 5, 8] (Mukhametov, 2023; Mukhametov, 2022; Engels et al., 2019). При этом современные НКО и медиа также адаптируют алгоритмы и ИИ-инструменты с фокусом на вовлечение граждан, что повышает к ним доверие как проводникам инноваций.

Рассматривая регуляторные ожидания и вовлечение стейкхолдеров, следует обратить внимание на доверие различным заинтересованным сторонам в вопросах информирования об инновациях и технологиях (таблица 5): данные представляют уровень доверия граждан информации об инновациях и технологиях, которую транслируют стейкхолдеры.

Таблица 5

Доверие институтам и организациям, которые сообщают о инновациях/технологиях

Институты и организации
Уровень доверия (%)
Исследователи
74
Технологические эксперты в компании
66
Представители НКО
54
Бизнес-лидеры
51
Журналисты
47
Правительственные лидеры
45
Источник: составлено автором на основе 2024 Edelman Trust Barometer Global Report.

Данные свидетельствуют о наибольшем доверии граждан к исследователям и технологическим экспертам как носителям знаний и информации о технологиях, при этом относительно высокий уровень доверия (больше 50% положительных ответов респондентов) также имеют представители НКО и бизнес-лидеры.

Как отмечалось ранее, внедрение и регулирование ИИ характеризуется информационной асимметрией, при которой осведомленность о технологиях разных участников регулирования значительно варьируется. Данные демонстрируют, что является логичным вовлечение исследователей и технических экспертов в качестве заинтересованных сторон в регулирование ИИ, поскольку их участие может повысить информированность решений и их актуальность применительно к новым технологиям. В этом отношении можно вспомнить открытое письмо ведущих бизнес-лидеров и исследователей ИИ, опубликованное в марте 2023 года с призывом временно приостановить тренировки ИИ-систем, мощнее GPT-4 [9] (Gherghina, 2024): несмотря на призыв корпорациям и правительствам ввести указанный мораторий, данные решения не были приняты, хотя письмо получило общественное распространение. Данные 2024 года показывают, что доверие исследователям и бизнес-лидерам как источникам информации о технологиях остается высокой, поэтому их можно рассматривать как ключевых стейкхолдеров для участия в регулировании ИИ, прежде всего, с точки зрения коммуникации между регуляторными органами и гражданами.

Применительно к данному измерению регуляторных ожиданий от внедрения ИИ можно говорить о том, что различные стейкхолдеры демонстрируют высокий уровень доверия в качестве медиаторов ИИ в общество, при этом имея положительные оценки в качестве ретрансляторов информации об инновациях и технологиях. Прежде всего, это справедливо для бизнеса, НКО, а также для исследователей и экспертов по технологиям – данные заинтересованные стороны оцениваются как носители знаний о новых технологиях, поэтому видится перспективным их вовлечение в регулирование ИИ на этапах подготовки и оценки политики.

Выводы по регуляторным ожиданиям в контексте внедрения ИИ. Обобщая результаты представленных трех измерений регуляторных ожиданий, можно заключить, что внедрение ИИ связывается с положительным влиянием технологий, однако существует значительная часть ожиданий негативного характера, что актуализирует вопросы регулирования ИИ. Государственные институты являются основными агентами регулирования технологий, однако текущее регулирование ИИ и компетенции государственных институтов в этой сфере оцениваются респондентами негативно – исходя из этого, видится необходимым трансформировать политику регулирования в сторону большей открытости и вовлечения носителей знаний об ИИ в принятие решений. Подобными носителями знаний могут выступить бизнес, НКО, а также исследователи и технологические эксперты, которые имеют сравнительно высокий уровень доверия граждан в качестве ретрансляторов информации о технологиях и медиаторов внедрения технологий в общество.

Выводы

Таким образом, можно выделить следующие регуляторные ожидания в контексте внедрения ИИ:

1) наряду с положительными мнениями существуют значительные ожидания негативного влияния ИИ;

2) преобладают негативные оценки компетенции и качества регулирования ИИ государственными институтами;

3) среди стейкхолдеров политики наибольший уровень доверия в качестве ретрансляторов информации о технологиях и медиаторов внедрения ИИ в общество демонстрируют бизнес, НКО, исследователи и технологические эксперты, одновременно медиа и журналисты имеют меньший уровень доверия.

Данные регуляторные ожидания позволяют говорить о возможности совместного участия государства и заинтересованных сторон в регулировании ИИ и создании образа будущего, в котором все большую часть занимают новые технологии (в частности, роботизация, внедрение нейросетевых интерфейсов, гибридные системы управления и др.).

Интерпретируя результаты, современные регуляторные ожидания от внедрения ИИ фокусируются на снижении информационной асимметрии при разработке правил для ИИ, а также на более прозрачной коммуникации регуляторов с гражданами. В этом отношении вовлечение стейкхолдеров может повлиять на предоставление альтернативных оценок в плане влияния ИИ на общество и экономику, что актуально в контексте быстрых изменений в ИИ-индустрии. Дополнительно представители заинтересованных сторон могут стать посредниками в коммуникации между регуляторами и гражданами, разъясняя значение и последствия принимаемых политических решений. Реализация данных ролей представляется наиболее значимой при совместном участии государства и стейкхолдеров политики в регулировании ИИ.

Важно отметить, что результаты исследования основаны на данных для зарубежных стран, относительно которых имеются данные о доверии регуляторам и заинтересованным сторонам в сфере ИИ и новейших технологий. По этой причине применительно к российском контексту можно также рекомендовать проведение исследований отношения граждан и бизнеса к различным медиаторам внедрения ИИ в общество и экономику. Также результаты отражают текущую ситуацию, которая может значительно трансформироваться ввиду отмеченных ранее быстрых изменениях в ИИ-отрасли: в этом отношении также видится логичным систематическое сравнение результатов в сфере регуляторных ожиданий.


Источники:

1. Каманин И.Е., Тихонюк Н.Е. Искусственный интеллект в образовании и бизнесе: сравнительный анализ востребованности компетенций по оценкам студентов и предпринимателей // Креативная экономика. – 2025. – № 6. – c. 1651-1668. – doi: 10.18334/ce.19.6.123218.
2. Левашов В.К., Гребняк О.В. Экспансия искусственного интеллекта: ожидания и настроения граждан // Социологические исследования. – 2002. – № 12. – c. 13-23. – doi: 10.31857/S0132162524120022.
3. Мухаметов Д.Р. Инструменты стимулирования открытых инноваций для городских пространств // Вопросы инновационной экономики. – 2023. – № 3. – c. 1327-1338. – doi: 10.18334/vinec.13.3.119236.
4. Мухаметов Д.Р. Прозрачность алгоритмов в государственном секторе: основные аспекты // Креативная экономика. – 2024. – № 12. – c. 3867-3880. – doi: 10.18334/ce.18.12.122327.
5. Мухаметов Д.Р. Создание устойчивых умных городов: технологии вовлечения граждан и совместного экспериментирования // Вопросы инновационной экономики. – 2022. – № 2. – c. 843-858. – doi: 10.18334/vinec.12.2.114443.
6. 2024 Edelman Trust Barometer Global Report. Edelman. Edelman.relayto.com. [Электронный ресурс]. URL: https://edelman.relayto.com/e/2024-edelman-trust-barometer-global-report-7l7799ws2oxsx (дата обращения: 01.05.2025).
7. Cai L. Realities vs expectations: children’s perception and imagination of AI // International Journal of Technology and Design Education. – 2024. – № 5. – p. 1687-1704. – doi: 10.1007/s10798-024-09879-5.
8. Engels F., Wentland A., Pfotenhauer S. Testing future societies? Developing a framework for test beds and living labs as instruments of innovation governance // Research Policy. – 2019. – № 9. – p. 1-11. – doi: 10.1016/j.respol.2019.103826.
9. Gherghina O. «AI Oppenheimer Moment»: Steps towards Regulatory Response to AIʼs Existential Risk to Humanity // European Business Law Journal. – 2024. – № 2. – p. 55-64.
10. Global Public Opinion on Artificial Intelligence (GPO-AI). Schwartz Reisman Institute for Technology and Society (SRI). Srinstitute.utoronto.ca. [Электронный ресурс]. URL: https://srinstitute.utoronto.ca/public-opinion-ai (дата обращения: 01.05.2025).
11. Ivars-Baidal J., Casado-Díaz A.B., Navarro-Ruiz S., Fuster-Uguet M. Smart tourism city governance: exploring the impact on stakeholder networks // International Journal of Contemporary Hospitality Management. – 2024. – № 2. – p. 582-601. – doi: 10.1108/IJCHM-03-2022-0322.
12. Kerr A., Barry M., Kelleher J.D. Expectations of artificial intelligence and the performativity of ethics: Implications for communication governance // Big Data and Society. – 2020. – № 1. – p. 205395172091593. – doi: 10.1177/2053951720915939.
13. Mennella C., Maniscalco U., De Pietro G., Esposito M. Ethical and regulatory challenges of AI technologies in healthcare: A narrative review // Heliyon. – 2024. – № 4. – p. e26297. – doi: 10.1016/j.heliyon.2024.e26297.
14. Novelli C., Casolari F., Rotolo A., Taddeo M., Floridi L. Taking AI risks seriously: a new assessment model for the AI Act // AI & Society. – 2023. – № 5. – p. 2493-2497. – doi: 10.1007/s00146-023-01723-z.
15. Shane O\'Sullivan, Nathalie Nevejans, Colin Allen, Andrew Blyth, Simon Leonard, Ugo Pagallo, Katharina Holzinger, Andreas Holzinger, Mohammed Imran Sajid, Hutan Ashrafian Legal, regulatory, and ethical frameworks for development of standards in artificial intelligence (AI) and autonomous robotic surgery // International journal of medical robotics and computer assisted surgery. – 2019. – № 1. – p. 1968. – doi: 10.1002/rcs.1968.
16. Qin Y., Xu Z., Wang X., Skare M. Artificial intelligence and economic development: An evolutionary investigation and systematic review // Journal of the Knowledge Economy. – 2023. – № 1. – p. 1736-1770. – doi: 10.1007/s13132-023-01183-2.
17. Saniuk S., Grabowska S., Straka M. Identification of social and economic expectations: Contextual reasons for the transformation process of Industry 4.0 into the Industry 5.0 concept // Sustainability. – 2022. – № 3. – doi: 10.3390/su14031391.
18. The EU AI Act. [Электронный ресурс]. URL: https://www.euaiact.com/ (дата обращения: 17.07.2025).
19. Walter Y. Managing the race to the moon: Global policy and governance in artificial intelligence regulation – A contemporary overview and an analysis of socioeconomic consequences // Discover Artificial Intelligence. – 2024. – № 1. – p. 14. – doi: 10.1007/s44163-024-00109-4.
20. Chengliang Wang, Haoming Wang, Yuanyuan Li, Jian Dai, Xiaoqing Gu, Teng Yu Factors influencing university students’ behavioral intention to use generative artificial intelligence: Integrating the theory of planned behavior and AI literacy // International Journal of Human–Computer Interaction. – 2025. – № 11. – p. 6649-6671. – doi: 10.1080/10447318.2024.2383033.
21. Zhou Ju. Higher expectations of artificial intelligence in terms of morality and humanity // Journal of Education, Humanities and Social Sciences. – 2023. – p. 279-284. – doi: 10.54097/ehss.v20i.11680.

Страница обновлена: 17.10.2025 в 23:10:36

 

 

Artificial intelligence and regulatory expectations: government and stakeholders in creation of the future image

Mukhametov D.R.

Journal paper

Creative Economy (РИНЦ, ВАК)
опубликовать статью | оформить подписку

Volume 19, Number 8 (August 2025)

Citation:

Abstract:
The article examines regulatory expectations in the context of the introduction of artificial intelligence. Regulatory expectations are ideas about institutionalization and future policy measures in regulating artificial intelligence. The article discusses the problem of identifying policy stakeholders to participate with the government in the artificial intelligence regulation. Based on the sociological survey data, the article analyzes three dimensions of regulatory expectations: (1) the ratio of expectations of the positive and negative impact of artificial intelligence; (2) expectations regarding the regulation of artificial intelligence by government institutions; and (3) expectations regarding the involvement of stakeholders in the regulation of artificial intelligence. The results of the study demonstrate that nowadays along with the positive impact, there are certain expectations of the negative impact of artificial intelligence. Negative assessments of the competencies and quality of regulation of artificial intelligence by government institutions prevail. Among policy stakeholders, business, non-profit organizations, and technology experts have the highest level of trust in integrating AI into society. The article determines the role of the state and stakeholders for joint participation in the regulation of artificial intelligence. The article is of interest to researchers of socio-economic and political aspects in the field of artificial intelligence.

Keywords: artificial intelligence, AI regulation, regulatory expectations, stakeholder, future image, AI impact

Funding:
Статья подготовлена по результатам исследований, выполненных за счёт бюджетных средств по государственному заданию Финансовому университету при Правительстве РФ.

JEL-classification: O33, O38, Z18

References:

2024 Edelman Trust Barometer Global Report. EdelmanEdelman.relayto.com. Retrieved May 01, 2025, from https://edelman.relayto.com/e/2024-edelman-trust-barometer-global-report-7l7799ws2oxsx

Cai L. (2024). Realities vs expectations: children’s perception and imagination of AI International Journal of Technology and Design Education. 34 (5). 1687-1704. doi: 10.1007/s10798-024-09879-5.

Chengliang Wang, Haoming Wang, Yuanyuan Li, Jian Dai, Xiaoqing Gu, Teng Yu (2025). Factors influencing university students’ behavioral intention to use generative artificial intelligence: Integrating the theory of planned behavior and AI literacy International Journal of Human–Computer Interaction. (11). 6649-6671. doi: 10.1080/10447318.2024.2383033.

Engels F., Wentland A., Pfotenhauer S. (2019). Testing future societies? Developing a framework for test beds and living labs as instruments of innovation governance Research Policy. 48 (9). 1-11. doi: 10.1016/j.respol.2019.103826.

Gherghina O. (2024). «AI Oppenheimer Moment»: Steps towards Regulatory Response to AIʼs Existential Risk to Humanity European Business Law Journal. (2). 55-64.

Global Public Opinion on Artificial Intelligence (GPO-AI). Schwartz Reisman Institute for Technology and Society (SRI)Srinstitute.utoronto.ca. Retrieved May 01, 2025, from https://srinstitute.utoronto.ca/public-opinion-ai

Ivars-Baidal J., Casado-Díaz A.B., Navarro-Ruiz S., Fuster-Uguet M. (2024). Smart tourism city governance: exploring the impact on stakeholder networks International Journal of Contemporary Hospitality Management. 36 (2). 582-601. doi: 10.1108/IJCHM-03-2022-0322.

Kamanin I.E., Tikhonyuk N.E. (2025). Artificial intelligence in education and business: a comparative analysis of the relevance of competencies according to the assessments of students and entrepreneurs. Creative Economy. 19 (6). 1651-1668. doi: 10.18334/ce.19.6.123218.

Kerr A., Barry M., Kelleher J.D. (2020). Expectations of artificial intelligence and the performativity of ethics: Implications for communication governance Big Data and Society. 7 (1). 205395172091593. doi: 10.1177/2053951720915939.

Levashov V.K., Grebnyak O.V. (2002). Expansion of artificial intelligence: expectations and attitudes of citizen. Sociological Studies (Sotsiologicheskie Issledovaniia). (12). 13-23. doi: 10.31857/S0132162524120022.

Mennella C., Maniscalco U., De Pietro G., Esposito M. (2024). Ethical and regulatory challenges of AI technologies in healthcare: A narrative review Heliyon. (4). e26297. doi: 10.1016/j.heliyon.2024.e26297.

Mukhametov D.R. (2022). Creating sustainable smart cities: technologies for citizens´ engagement and collaborative experimentation. Russian Journal of Innovation Economics. 12 (2). 843-858. doi: 10.18334/vinec.12.2.114443.

Mukhametov D.R. (2023). Tools to stimulate open innovation for urban spaces. Russian Journal of Innovation Economics. 13 (3). 1327-1338. doi: 10.18334/vinec.13.3.119236.

Mukhametov D.R. (2024). Algorithm transparency in the public sector: key aspects. Creative economy. 18 (12). 3867-3880. doi: 10.18334/ce.18.12.122327.

Novelli C., Casolari F., Rotolo A., Taddeo M., Floridi L. (2023). Taking AI risks seriously: a new assessment model for the AI Act AI & Society. (5). 2493-2497. doi: 10.1007/s00146-023-01723-z.

Qin Y., Xu Z., Wang X., Skare M. (2023). Artificial intelligence and economic development: An evolutionary investigation and systematic review Journal of the Knowledge Economy. (1). 1736-1770. doi: 10.1007/s13132-023-01183-2.

Saniuk S., Grabowska S., Straka M. (2022). Identification of social and economic expectations: Contextual reasons for the transformation process of Industry 4.0 into the Industry 5.0 concept Sustainability. 14 (3). doi: 10.3390/su14031391.

Shane O\'Sullivan, Nathalie Nevejans, Colin Allen, Andrew Blyth, Simon Leonard, Ugo Pagallo, Katharina Holzinger, Andreas Holzinger, Mohammed Imran Sajid, Hutan Ashrafian (2019). Legal, regulatory, and ethical frameworks for development of standards in artificial intelligence (AI) and autonomous robotic surgery International journal of medical robotics and computer assisted surgery. 15 (1). 1968. doi: 10.1002/rcs.1968.

The EU AI Act. Retrieved July 17, 2025, from https://www.euaiact.com/

Walter Y. (2024). Managing the race to the moon: Global policy and governance in artificial intelligence regulation – A contemporary overview and an analysis of socioeconomic consequences Discover Artificial Intelligence. 4 (1). 14. doi: 10.1007/s44163-024-00109-4.

Zhou Ju. (2023). Higher expectations of artificial intelligence in terms of morality and humanity Journal of Education, Humanities and Social Sciences. 20 279-284. doi: 10.54097/ehss.v20i.11680.