Исследования в области искусственного интеллекта в контексте экономической безопасности науки в Российской Федерации
Коломиец А.Г.![]()
1 Институт экономики Российской академии наук, Москва, Россия
Скачать PDF | Загрузок: 16
Статья в журнале
Экономическая безопасность (РИНЦ, ВАК)
опубликовать статью | оформить подписку
Том 8, Номер 10 (Октябрь 2025)
Эта статья проиндексирована РИНЦ, см. https://elibrary.ru/item.asp?id=84011827
Аннотация:
Необходимым условием расширения и результативности исследований в области развития искусственного интеллекта в Российской Федерации является обеспечение экономической безопасности науки, как комплекса социально-экономических задач, который включает поддержание способности научного сообщества в необходимых объемах осуществлять исследования и разработки в целях получения новых знаний, опираясь на внутреннюю логику развития науки, в интересах социально-экономического развития России. Необходимо найти ответы на вызовы и угрозы стабильности институтов науки и процесса научных исследований в Российской Федерации, связанные с развитием искусственного интеллекта в условиях усиления геоэкономической и геополитической фрагментации. Цель статьи - характеристика указанных вызовов и угроз. Автор, в частности, отмечает, что вопрос на какой базе и как искусственный интеллект будет строить свои выводы и рекомендации в области гуманитарных и социальных наук, возможно, не менее важен для развития Российской Федерации, чем вклад искусственного интеллекта в достижение технологического суверенитета. Обосновывается вывод, что проведение опережающих исследований в области искусственного интеллекта и смежных областях усиливает объективную потребность общества в защищенности институтов науки, обеспеченности не только естественных, но и гуманитарных наук финансовыми и материальными ресурсами, которые требуются для проведения исследований и наращивания кадрового потенциала науки в целом. Реализация этого социального запроса требует усиления согласованности различных звеньев системы стратегического планирования научно-технического прогресса в Российской Федерации.
Ключевые слова: искусственный интеллект (ИИ), экономическая безопасность науки, научные исследования и разработки, гуманитарные и социальные науки, геоэкономическая и геополитическая фрагментация
Финансирование:
Статья подготовлена в соответствие с темой государственного задания «Изменение институциональных основ экономической безопасности Российской Федерации в новых условиях». Рег. № НИОКТР № 075-00448-24-00
JEL-классификация: F52, H56, O32
Введение.
Развитие экономики знаний на современном этапе в возрастающей степени зависит от расширения масштабов использования все более совершенных моделей искусственного интеллекта (ИИ), в том числе в образовании и науке. Согласно Национальной стратегии развития искусственного интеллекта на период до 2030 года, поддержка научных исследования в различных областях знания является одной из основных задач развития ИИ в Российской Федерации. Вместе с тем, научные исследования в области ИИ являются одним из важнейших направлений научных исследований, которое требует значительных инфраструктурных, кадровых и финансовых ресурсов [7]. Эти ресурсы во многом еще предстоит создать, в том числе на основе объединения потенциалов государства и частнопредпринимательского сектора. Перспективы такого объединения зависят в немалой степени от возможностей получения экономических результатов применения ИИ, которые не всегда интерпретируются однозначно, при том, что ориентиры регулирования развития и применения ИИ не установлены определенно даже в странах, которые занимают лидирующее позиции в данной области.
В этой связи, необходимым условием расширения и результативности исследований в области развития ИИ в Российской Федерации является обеспечение экономической безопасности научных исследований, как комплекса социально-экономических задач, который включает поддержание способности научного сообщества в необходимых объемах осуществлять исследования и разработки в целях получения новых знаний, опираясь, как предусматривает Стратегия научно-технологического развития РФ, на внутреннюю логику развития науки, в интересах социально-экономического развития России и реализации стратегических приоритетов Российской Федерации [3, с.9-12; 8].
Решение этих задач является интегрированной составляющей обеспечения национальной экономической безопасности, что определяется требованиями Указа Президента РФ от 13 мая 2017 г. № 208 «О Стратегии экономической безопасности Российской Федерации на период до 2030 года», которым указанная Стратегия утверждена (далее – Стратегия экономической безопасности), и других документов, определяющих цели, задачи, направления и порядок действий в области национальной экономической безопасности, стратегического управления и планирования в Российской Федерации. Стратегия экономической безопасности выделяет среди основных видов угроз экономической безопасности: ограничение доступа к иностранным современным технологиям, слабую инновационная активность, отставание в области разработки и внедрения новых и перспективных технологий, недостаточный уровень квалификации и ключевых компетенций отечественных специалистов, усиление международной конкуренции за кадры высшей квалификации. Деятельность по созданию условий защиты от этих и аналогичных угроз представляет собой область экономической безопасности науки. Цель этой деятельности Стратегией экономической безопасности определена как одна из целей государственной политики в сфере обеспечения экономической безопасности: поддержание научно-технического потенциала развития экономики на мировом уровне и повышение ее конкурентоспособности [9, пп.12,14]. Достижение данной цели подразумевает меры государственной политики, обеспечивающие экономическую безопасность науки, в том числе мероприятия, обеспечивающие материальные, финансовые, кадровые условия научных исследований в области ИИ. Необходимая предпосылка разработки указанных мероприятий - определение вызовов и угроз стабильности институтов науки и процесса научных исследований в РФ, связанных с развитием ИИ в условиях усиления геоэкономической и геополитической фрагментации. Цель статьи – развернутая характеристика важнейших из этих вызовов и угроз.
Исследования в области искусственного интеллекта в условиях геоэкономической и геополитической фрагментации.
«Многие страны теперь считают экономическую безопасность неразрывно связанной с национальной безопасностью», констатирует нобелевский лауреат М. Спенс (Michael Spence) [22]. Происходящее усиление геоэкономической и геополитической фрагментации (гео-фрагментации) в условиях развития экономики знаний выдвинуло на первый план среди актуальных задач обеспечения национальной экономической безопасности ведущих экономик мира, в том числе, крупнейших экономик ОЭСР и БРИКС, обеспечение и укрепление технологического суверенитета. В то же время, становится все более очевидным, что достижение технологического суверенитета в современном мире возможно только, когда основным драйвером этого процесса являются оригинальные научные разработки в соответствующих странах, осуществляемые при масштабной поддержке со стороны государства. В странах, которые в настоящее время являются инновационными лидерами, как правило, приоритеты в сфере науки и технологий определяются на государственном уровне и постоянно обновляются, что позволяет учитывать результаты прорывных исследований и разработок [1]. Исследования в области ИИ занимают ведущее место среди этих приоритетов. В данной области развертывается острая конкурентная борьба, в которой даже лидерство в начальной фазе исследований не является гарантией общего успеха. Поскольку ИИ, как предполагается экспертами, способен может открыть путь к выдающимся прорывам в науке, технологиях и экономической производительности, победа в гонке за разработку ИИ укрепит национальную безопасность и глобальное технологическое влияние страны-лидера. Понимание отмеченного обстоятельства вызывает озабоченность в США, где высказываются обоснованные опасения, что, учитывая современную динамику исследований в области ИИ, таким победителем может оказаться Китай. Активными участниками глобальной конкурентной борьбы за создание цифровой инфраструктуры, которая станет основой глобальной разработки, внедрения и использования ИИ, помимо США и Китая, являются, по оценкам некоторых американских экспертов, такие страны как Франция, Япония, Нидерланды, Южная Корея, Тайвань и Великобритания, а также ряд развивающихся стран (Бразилия, Индия, Саудовская Аравия и ОАЭ) [16].
Тем не менее, пока даже наиболее успешным в создании инноваций развивающимся экономикам не удалось в должной мере преодолеть научную и технологическую зависимость от инновационных лидеров, которая влияет на возможности продвижения исследований в области ИИ. Так, Китай – крупнейшая и наиболее инновационная среди развивающихся стран экономика, продолжает оставаться крупным чистым импортером интеллектуальной собственности из США и ЕС. Одним из сильнейших инструментов этой борьбы являются ограничения научного обмена, к которым активно прибегают США и ЕС, опираясь на свое положение крупнейших в мире экспортеров интеллектуальной собственности (США является первым по величине экспортером идей, ЕС - вторым) [13]. Такое положение является уязвимостью развивающихся экономик, которую США и ЕС пытаются использовать в конкурентной борьбе, стремясь поддержать глобальное лидерство в критически значимых для национальной экономической безопасности отраслях, среди которых первостепенную роль играют отрасли, опирающиеся на прорывные научные разработки, в том числе в области ИИ. В условиях, когда Китай демонстрирует стремление к технологическому прорыву и мировому лидерству в развитии искусственного интеллекта [4], США придерживаются двухсторонней стратегии в своей борьбе за превосходство: сдерживание Китая путем ограничения экспорта ключевых технологических компонентов и ускорение внутренних инноваций на основе основополагающих моделей ИИ [14]. Более того, как отмечают китайские эксперты, в сфере искусственного интеллекта США запустили проекты «войны алгоритмов», наладив партнёрские отношения с такими технологическими компаниями, как Google, для использования алгоритмов ИИ в интеллектуальной когнитивной войне [21].
Одной из ключевых областей, в которых развертывается соперничество в области развития ИИ являются фундаментальные исследования. «фундаментальные исследования – это великий уравнитель. Независимо от того, движет ли система государственным или частным сектором, инновации в конечном итоге вытекают из открытий», - отмечает американский аналитик, подчеркивая стремление КНР к приоритетному развитию фундаментальных исследований в данной области и намечающееся ослабление лидерства в ней США [20].
В Российской Федерации в последние десятилетия в различных областях научного знания удалось получить ряд выдающихся научных результатов и обеспечить их практическое использование. Как признают в США, «Россия давно преуспела в кибертехнологиях». Характерной реакцией на эти достижения стало запрещение использование программного обеспечения российской компании «Лаборатория Касперского» на правительственных устройствах в Канаде, Великобритании и ряде стран ЕС [24]. Не приходится сомневаться, что создание трудностей для коопераций научных исследований с российскими учеными будет стандартной реакцией на их прорывные исследования, в том числе в области ИИ, в странах ОЭСР, входящих в число научных и инновационных лидеров.
Рассмотренные выше проблемы и вызовы были учтены при формировании задач поддержки научных исследований в области ИИ при разработке и корректировке в 2024 г. Национальной стратегии развития искусственного интеллекта на период до 2030 года, которая предусматривает достижение цели «вхождения Российской Федерации в группу мировых лидеров в области развития и внедрения технологий искусственного интеллекта» [7, п.17]. Эти задачи предусматривают стимулирование научных исследований и разработок в области искусственного интеллекта, увеличение объема финансирования междисциплинарных исследовательских проектов в области искусственного интеллекта за счет ассигнований бюджетов различных уровней и средств внебюджетных источников, поддержку проведения фундаментальных научных исследований в области искусственного интеллекта и другие меры [7, п.51(3)].
Важнейшим условием получения значимых для развития ИИ научных результатов являются продвижение как в смежных отраслях знания, так и на широком фронте научных исследований. Такое продвижение возможно только на базе укрепления институтов, обеспечивающих: обмен и оценку научных результатов, учет и защиту интеллектуальных прав, подготовку научных кадров, финансирование науки, социальную защиту занятых в науке и научном обслуживании, т.е. экономическую безопасность (защищенность) науки в целом.
Экономическая безопасность науки и исследования искусственного интеллекта: вызовы, угрозы, риски.
Очевидно, что генеративный искусственный интеллект открывает новые перспективы перед научными исследованиями, благодаря способности в кратчайший срок обрабатывать большие массивы информации (big data) и самообучаться ИИ способен в значительной степени замещать функции человеческого интеллекта, которые отличаются высокой степенью формализации. ИИ наиболее эффективен там, где ИИ генерирует преимущественно стандартные ответы на стандартные и корректно поставленные вопросы, оценивает риски, используя преимущественно хорошо структурированные распределенные базы данных, например, при производстве и реализации стандартизированных товаров и услуг массового спроса, в т.ч. в социально-культурной сфере.
Несмотря на отмеченные потенциальные преимущества и широкое использование ИИ в практике бизнеса, экономическая эффективность ИИ и адекватная оценка связанных м таким применением рисков пока неочевидна. В США согласно исследованию McKinsey & Company, восемь из десяти опрошенных компаний заявили, что внедряют генеративный ИИ в свой бизнес, однако многие также заявили об отсутствии «значительного влияния на конечный результат» [18].
Масштабные перспективы имеет использование генеративных моделей ИИ (GAI) при проведении операций на финансовом рынке. Современные финансовые технологии опираются на научные достижения, которые позволяют разрабатывать все более мощные и совершенные программные средства для осуществления операций, в том числе с принципиально новыми финансовыми инструментами, такими как криптовалюты. Уже в настоящее время ряд инвестиционных фондов заявили, что более сложные модели GAI, основанные на новых статистических методах, используется ими для объединения и взвешивания различных инвестиционных факторов, которые определяют выбор объектов и целей инвестирования. Это, как считается, позволяет в известной степени снизить риски операций.
Вместе с тем, при операциях на финансовых рынках в используемой GAI информации в значительных масштабах присутствует неопределенность. В связи с этим GAI, так или иначе, вынужден имитировать ограниченную рациональность человеческого интеллекта, т.е. принимать решения на основе ограниченной рациональности (bounded rаtionality). Вследствие сложности и нестабильности финансового рынка, хаотичности финансовых временных рядов, данные, как правило, зашумлены и подвержены влиянию множества взаимосвязанных факторов. Диапазон положительных и отрицательных исходов решений GAI гораздо шире, чем у человеческого интеллекта. Также больше положительных и отрицательных экстерналий. Все это делает многие стандартные процедуры прогнозирования непригодными и позволят утверждать, что применение GAI на финансовом рынке приведет к росту неопределенности, а, следовательно, и волатильности на этом рынке. Очевидно также, что использование ИИ в широких масштабах при проведении операций на финансовых рынках способно, учитывая ключевую роль финансового рынка в современной экономике, провоцировать дополнительную неопределенность и критически значимые, но слабо контролируемые риски. Один из возможных подходов к проблеме использования ИИ в данной сфере, как представляется, предполагает совмещение областей расчетов рисков и экспертных оценок неопределенности исходов [17].
Рассмотренные проблемы использования ИИ на финансовом рынке подтверждают тезис, что в научных исследованиях, где степень неопределенности условий и исходов весьма высока, использование ИИ должно осуществляться с учетом, возникающих при таком использовании, специфических угроз и рисков. Поскольку ИИ будет в возрастающих масштабах использоваться в научных исследованиях, исследование экономической безопасности науки должно включать анализ такого рода специфических угроз и рисков. Базовые характеристики моделей ИИ— дискретность, диффузность и непрозрачность — продолжают оставаться существенными и для продвинутых моделей ИИ (GAI) [23]. Нет и консенсуса относительно рисков применения ИИ и его правового регулирования [19].
Слабые стороны использования ИИ в процессе научных исследований включают, в частности: сложность идентификации источника, отсутствие обеспечения этики академического письма и снижение креативности оригинальных текстов. Очевидно, что использование ИИ способно подтолкнуть к имитации науки в самом широком смысле, особенно при подготовке научных публикаций. Целенаправленное исследование выявило несколько угроз использования ИИ (модели ChatGPT) при подготовке публикаций, включая отсутствие гарантии оригинальности идей и ресурсов, несоблюдение академической этики, рост плагиата и снижение высоких когнитивных и творческих навыков и писательской креативности. В этой связи, как считают авторы исследования, необходимо четкое разделение вспомогательных и творческих функций для предотвращения имитации научных исследований, прямое запрещение использования ИИ для формулирования гипотез, анализа причин, интерпретации результатов или обсуждения результатов, также для создания рецензий и комментариев к ним, т.е. задач, которые требуют интеллектуального участия человека [11].
Использование генеративного ИИ является прямым вызовом для развития наук о человеке и обществе и увеличивает спрос общества на результаты этих наук. Исследователям еще предстоит ответить на вопросы преимущественно фундаментального характера: какие когнитивные процессы полностью или частично способен имитировать ИИ; каковы социальные и правовые ограничения использования ИИ необходимы, чтобы такое использование не стало критической угрозой устойчивому развитию экономики и общества; как в условиях широкого использования ИИ в технологиях управления могут и должны работать гарантии и механизмы социальной защиты в широком смысле, включая механизмы защиты личности и частной жизни, и многие другие.
Невозможно избежать ответа на вопрос: какие именно знания будет воспроизводить и развивать ИИ. Исследование и передача смыслов представляет собой первооснову гуманитарных наук. Вместе с тем, в гуманитарных исследованиях понятия в большинстве случаев многозначны и содержат скрытые, в т.ч. зачастую и от авторов текстов, смыслы. Кроме того, в области гуманитарных наук, крайне трудно и подчас невозможно определить границу «массового» и научного сознания. Интернет в целом является своего рода «слепком» сознания общества, не только нынешнего, но и прошлого. Сложные тексты, генерируемые ИИ по тематике гуманитарных наук, зачастую на одной странице воспроизводят штампы наиболее широко внедрившихся в массовое сознание и взаимно противоречивых концептов, дополняя их наукообразными оборотами, смысловое содержание которых не соотносится с другими фрагментами текста. По мнению некоторых аналитиков, генеративный ИИ принципиально слеп к истине и, следовательно, принципиально ненадёжен, поскольку системы генеративного ИИ обрабатывают весь интернет, выявляют закономерности в человеческой речи и пытаются реконструировать то, что звучит правдоподобно в заданном контексте [15]. Интеллектуальная эко-среда, которую таким образом формирует ИИ, особенно на этапе обучения, может подталкивать к непроизвольной имитации научных результатов за счет словообразований.
Значимый комплекс угроз определяется влиянием ИИ как инструмента персонализации и своего рода «мягкой силы» на выбор исследователей в направлении «углубления научной колеи» и «зависимости от пути» (path-dependence). Такое влияние противоречит современной тенденции развития науки, которая проявляется в том, что наиболее перспективные научных исследований в последние десятилетия имели междисциплинарный характер и были реализованы с выходом за пределы концепций, относительно устоявшихся в рамках сложившихся научных представлений.
Еще один тип угроз, который является наиболее обсуждаемым с точки зрения национальной безопасности – зависимость ИИ и его использования в интересах национальных научных исследований, в т.ч. в области технологий двойного назначения, от центров обработки данных, находящихся за пределами национальных границ, особенно при дефиците вычислительных мощностей на национальном рынке. Данная проблема актуальна не только для РФ. Так, американская корпорация Nvidia продвигает концепцию «суверенного искусственного интеллекта», которая подразумевает строительство центров обработки данных в пределах национальных границ (и/или в станах-союзниках) для снижения зависимости от потенциально недружественных технологических компаний. Реализация данной концепции упрочит доминирующее положение США, на которые уже приходится около 75% международного рынка вычислительных мощностей [12].
Наконец, ключевое значение для развития научных исследований в областях гуманитарных наук и в более широком плане для устойчивого развития общества и его социально-политического единства в РФ имеют вызовы и угрозы, которые возникают вследствие прорывов в исследованиях ИИ и в таких областях как психология, нейронаука, науки о мозге. Эти результаты используются в странах, занимающих лидирующие позиции в инновационной конкуренции, прежде всего в США, для попыток «фундаментально изменить образ мышления и оценочные суждения» в странах-оппонентах и в развивающихся странах посредством «когнитивной реструктуризации», цель которой ученые КНР определили как «колонизацию сознания». Документ под названием «Сolonization of the mind - The Means, Roots, and Global Perils of U.S. Cognitive Warfare», подготовленный китайскими учеными и опубликованный в сентябре 2025 г. государственным агентством «Синьхуа» [21], ясно демонстрируют, что его авторы не намерены содействовать превращению своей страны в чей бы то ни было интеллектуально-сырьевой придаток. Отмеченные выше особенности ИИ делают его потенциально эффективным инструментом «колонизации сознания». В эпоху развития ИИ задача противодействия «колонизации сознания» для наук об обществе и для общества в целом, возможно, является не менее важной, нежели обеспечение технологического суверенитета. Доминирование подобного «сознания» способно в значительной степени изменить смысл движения к технологическому суверенитету. Поставленная китайскими учеными проблема в той или иной степени затрагивает все крупнейшие развивающиеся экономики. К сожалению, в России, которая, как минимум, последних восемь десятилетий, является главной точкой приложения небезуспешных усилий по «колонизации сознания», общая направленность которых определилась задолго до открытий в области ИИ, подобный документ не был своевременно подготовлен и представлен на государственном уровне.
В Стратегии экономической безопасности указано, что одним из основных видов угроз национальной экономической безопасности является недостаточный уровень квалификации и ключевых компетенций отечественных специалистов [9]. В немалой степени такое положение, особенно в областях гуманитарных и социальных наук, продуцировано «колонизацией сознания». В то же время нельзя не отметить, что одной из важнейших причин, способствующих недостаточности ключевых компетенций отечественных специалистов, является не соответствующее современным условиям внимание государства к вопросам экономической безопасности науки, в том числе в части поддержки гуманитарных и социальных наук, как в отношении обеспечения деятельности имманентных науке институтов, так и в отношении обеспечения финансовыми ресурсами и наращивания кадрового потенциала науки. В целом российской науке пока не удается в достаточном мере поддержать фундаментальными и прикладными научными разработками решение задач инновационного лидерства и достижения технологического суверенитета.
Объективно способствует сохранению такого положения нередкая слабая согласованность различных стратегий, нацеленных на развитие науки и ИИ, при разработке документов стратегического планирования и организации межведомственного взаимодействия при увязке различных федеральных программ и национальных проектов, формировании отчетности о реализации предусмотренных ими мероприятий.
Так, в списке 9 важнейших приоритетов научно-технологического развития на ближайшее десятилетие, указанных в Стратегии научно-технологического развития Российской Федерации [8, п.21], отсутствует упоминание об ИИ. Вместе с тем, согласно Национальной стратегии развития ИИ объем затрат организаций на внедрение и использование технологий искусственного интеллекта (включая расходы на решение задач по созданию научной инфраструктуры и т.п.) уже в 2030 году должен вырасти не менее чем до 850 млрд. рублей в год [7, п.24, п.28 (1)], что при благоприятном сценарии роста ВВП составит около 0,3% ВВП. В то же время, Стратегия научно-технологического развития Российской Федерации, предусматривает поэтапное увеличения затрат на исследования и разработки и доведение их до уровня не менее двух процентов ВВП в перспективе до 2035 г. [8, п.55]. Т.е. при благоприятном сценарии роста этих затрат они в 2030 г. составит около 1,5%, хотя отчетные данные за последние годы, включая 2023 г., свидетельствуют о сохранении показателя затрат на исследования и разработки на уровне около 1% ВВП [5, с.478]. При различных сценариях развития рынка ИИ (около 25% которого приходится на расходы на научные исследования в данной области), по экспертным оценкам доля этого рынка в ВВП РФ возрастет в 2035 г. от 1,2% ВВП (консервативный сценарий) до 1,9% ВВП (оптимистический сценарий ВВП [10, с.130-141]. Иными словами, возможны сценарии, при которых значительная часть прироста реальных затрат на НИОКР в РФ (если таковой будет иметь место) в течение ряда лет может быть использована непосредственно на обеспечение исследований в области ИИ за счет иных направлений исследований. Как показано выше, такая ситуация противоречит логике развития науки и способна оказать деструктивное влияние на всю систему образования и состояние исследований в областях не только гуманитарных, но и естественных наук.
Действовавший до 2024 г. национальный проект «Наука и университеты», ставил одной из целей выведение России в пятерку мировых лидеров по разработкам в приоритетных областях. Однако отчет об итогах реализации этого нацпроекта не упоминает: в какой мере этой цели удалось достичь. Официальный отчет об исполнении проекта «Наука и университеты», размещенный на сайте «национальныепроекты.рф», содержит информацию, что мероприятия, осуществленные в рамках данного проекта, позволили «увеличить внутренние затраты на исследования до 2% ВВП» [6]. Неясно, как эта информация согласуется с фактическим положением и указанными выше задачами, поставленными Стратегией научно-технологического развития Российской Федерации.
Несмотря на то, что стратегия развития ИИ законодательно оформлена в 2019 г., Минцифры РФ только к середине 2025 г. разработало проект концепции развития регулирования в сфере технологий искусственного интеллекта (ИИ) до 2030 года, который пока находятся в процессе согласования. Причем, по оценкам некоторых экспертов, «конкретики в виде параграфов и статей там пока нет. Вместо них набор разумных и даже благородных принципов» [2].
Заключение.
Необходимым условием расширения и результативности исследований в области развития ИИ в Российской Федерации является обеспечение экономической безопасности научных исследований, как комплекса социально-экономических задач, который включает поддержание способности научного сообщества в необходимых объемах осуществлять исследования и разработки в целях получения новых знаний, опираясь на внутреннюю логику развития науки, в интересах социально-экономического развития Российской Федерации. Необходимо найти ответы на вызовы, угрозы и риски стабильности институтов науки и процесса научных исследований в РФ, связанные с развитием ИИ в условиях усиления геоэкономической и геополитической фрагментации. Поиск этих ответов – одна из задач исследований в области ИИ и смежных областях науки. Большие данные Интернета, которые используются ИИ, в том числе для поиска таких ответов, являются своего рода «слепком» сознания общества, не только нынешнего, но и прошлого. В этой связи, использование генеративного ИИ является прямым вызовом для развития наук о человеке и обществе и увеличивает спрос общества на результаты этих наук. Вопрос на какой базе и как ИИ будет строить свои выводы и рекомендации в области гуманитарных и социальных наук, возможно, не менее важен, чем вопрос технологического суверенитета.
Таким образом, закрепленная в Национальной стратегии развития искусственного интеллекта на период до 2030 года приоритетность исследований в области ИИ усиливает объективную потребность общества в защищенности институтов науки, обеспеченности не только естественных, но и гуманитарных наук финансовыми ресурсами, которые требуются для проведения исследований и наращивания кадрового потенциала науки. Реализация этого социального запроса требует усиления согласованности различных звеньев системы стратегического планирования РФ.
Источники:
2. Как будут регулировать искусственный интеллект в России? 20.08.2025. [Электронный ресурс]. URL: https://www.it-world.ru/it-news/3z0e5zoaftess0wkg8g80sw4w8o0ckw.html) (дата обращения: 01.09.2025).
3. Коломиец А.Г. Экономическая безопасность науки: противоречивые тренды. - М., ИЭ РАН, 2024. – 40 c.
4. Кумуков А.М., Гундарь Е.С. Особенности реализации концепции национальной безопасности в современном Китае // Общество: политика, экономика, право. – 2025. – № 6. – c. 31–38. – doi: 10.24158/pep.2025.6.3.
5. Российский статистический ежегодник. 2024. / Стат. сб./Росстат. - М., 2024. – 630 c.
6. Сайт «Национальные проекты». [Электронный ресурс]. URL: https://национальныепроекты.рф/news/podvedeny-itogi-realizatsii-natsproekta-nauka-i-universitety (дата обращения: 28.08.2025).
7. О развитии искусственного интеллекта в Российской Федерации. Указ Президента РФ от 10.10.2019 N 490 (ред. от 15.02.2024). [Электронный ресурс]. URL: https://www.consultant.ru/document/cons_doc_LAW_335184/1f32224a00901db9cf44793e9a5e35567a4212c7/ (дата обращения: 01.08.2025).
8. О Стратегии научно-технологического развития Российской Федерации. Указ Президента Российской Федерации от 28 февраля 2024 года № 145. [Электронный ресурс]. URL: http://www.kremlin.ru/acts/bank/50358 (дата обращения: 03.08.2025).
9. О Стратегии экономической безопасности Российской Федерации на период до 2030 года. Указ Президента РФ от 13 мая 2017 г. N 208. [Электронный ресурс]. URL: http://www.kremlin.ru/acts/bank/41921 (дата обращения: 01.08.2025).
10. Фролов И.Э., Киселев В.Н. Искусственный интеллект как драйвер прорывных технологий: глобальные тренды и уроки для России // Проблемы прогнозирования. – 2025. – № 3. – c. 122-134. – doi: 10.47711/0868-6351-210-122-13.
11. Alamri W., Qasem F., Alfotais A., Al Taisan H. Leveraging ChatGPT AI Model in Academic Writing and Avenues for Further Development: SWOT Framework // Forum for Linguistic Studies. – 2025. – № 2. – doi: https://doi.org/10.30564/fls.v7i2.8218.
12. Bloomberg, 18.06.2024. [Электронный ресурс]. URL: https://bloomberg.com/ (дата обращения: 25.09.2025).
13. Chikako, B., Lan, T., Mineshima, A., Misch, F., Pinat, M., Shahmoradi, A., Yao, J., and van Elkan, R. // IMF Working Paper. – 2023. – № 23. – p. 245. – url: https://www.elibrary.imf.org/view/journals/001/2023/245/article-A001-en.xml.
14. Elbaum S., Segal A. // Foreign Affairs June. – 2025. – № 13. – url: https://www.foreignaffairs.com/.
15. Gary M. AI’s Reliability Crisis. Jun 15, 2025. [Электронный ресурс]. URL: https://www.project-syndicate.org/magazine/generative-ai-fundamentally-unreliable-and-with-no-apparent (дата обращения: 10.07.2025).
16. Kahl C. H., Mitre J. The Real AI Race. America Needs More Than Innovation to Compete With China. Foreign Affairs. July 9, 2025. [Электронный ресурс]. URL: https://www.foreignaffairs.com/ (дата обращения: 19.07.2025).
17. Kolomiets A. Will the GAI Using Restrict or Elevate Financial Market Volatility? // J Inform Anal. – 2025. – № 3. – doi: 10.53964/jia.2025001.
18. Lee D. (2025). Is the AI Winter Finally Upon Us?. [Электронный ресурс]. URL: https://www.bloomberg.com/opinion/articles/ (дата обращения: 11.09.2025).
19. Novelli C, Casolari F, Hacker P. // Comput Law Secur Rev. – 2024. – № 16. – url: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4694565.
20. Roach S. Who’s Winning the US-China AI Race? 24.07.2025. [Электронный ресурс]. URL: https://www.project-syndicate.org/commentary/trump-cuts-to-basic-research-in-us-could-enable-china-to-win-ai-race-by-stephen-s-roach (дата обращения: 19.08.2025).
21. States Xinhua Institute. Colonization of the mind - The Means, Roots, and Global Perils of U.S. Cognitive Warfare (2025). September, 2025. [Электронный ресурс]. URL: https://english.news.cn/20250907/52998b0f27704866af2a66f5df6577dd/80c86fe8e8484a989451aa09d30dabdb.pdf (дата обращения: 08.09.2025).
22. Spence M. (2025). Adam Smith at 250. [Электронный ресурс]. URL: https://www.project-syndicate.org/commentary/adam-smith-economic-specialization-being-reversed-and-challenged-by-ai-by-michael-spence-2025-08/ (дата обращения: 20.08.2025).
23. Scherer M. U. Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies (May 30, 2015). Harvard Journal of Law & Technology, Vol. 29, No. 2, Spring 2016. [Электронный ресурс]. URL: http://dx.doi.org/10.2139/ssrn.2609777 (дата обращения: 09.06.2025).
24. Soldatov A., Borogan I. Putin’s New Cyber Empire. Foreign Affairs. August 25, 2025. [Электронный ресурс]. URL: https://www.foreignaffairs.com/ (дата обращения: 10.09.2025).
Страница обновлена: 02.12.2025 в 22:28:32
Download PDF | Downloads: 16
Research in the field of artificial intelligence in the context of the economic security of science in the Russian Federation
Kolomiets A.G.Journal paper
Economic security
Volume 8, Number 10 (October 2025)
Abstract:
Ensuring the economic security of science is a necessary condition for the expansion and effectiveness of research in the field of artificial intelligence development in the Russian Federation. At the same time, the economic security of science is a set of socio-economic tasks, which includes maintaining the ability of the scientific community to carry out research and development to the required extent in order to obtain new knowledge, based on the internal logic of the development of science, in the interests of Russia's socio-economic development.
It is necessary to find answers to the challenges and threats to the stability of scientific institutions and the scientific research process in the Russian Federation related to the development of artificial intelligence in the context of increasing geo-economic and geopolitical fragmentation. The article aims to characterize these challenges and threats.
The author of the article notes that the question on what basis and how artificial intelligence will provide its conclusions and recommendations in humanities and social sciences is probably no less important for the development of the Russian Federation than the contribution of artificial intelligence to achieving technological sovereignty.
The conclusion is substantiated that conducting advanced research in artificial intelligence and related fields reinforces the objective need of society for the protection of scientific institutions, providing not only natural sciences but also humanities with financial and material resources that are required for research and building the human resources of science as a whole.
The realization of this social demand requires strengthening the coherence of various parts of the strategic planning system for scientific and technological progress in the Russian Federation.
Keywords: artificial intelligence, economic security of science, research and development, humanities and social sciences, geo-economic and geopolitical fragmentation
Funding:
Статья подготовлена в соответствие с темой государственного задания «Изменение институциональных основ экономической безопасности Российской Федерации в новых условиях». Рег. № НИОКТР № 075-00448-24-00
JEL-classification: F52, H56, O32
References:
Russian Statistical Yearbook. 2024 (2024).
Alamri W., Qasem F., Alfotais A., Al Taisan H. (2025). Leveraging ChatGPT AI Model in Academic Writing and Avenues for Further Development: SWOT Framework Forum for Linguistic Studies. (2). doi: https://doi.org/10.30564/fls.v7i2.8218.
Bloomberg, 18.06.2024. Retrieved September 25, 2025, from https://bloomberg.com/
Chikako, B., Lan, T., Mineshima, A., Misch, F., Pinat, M., Shahmoradi, A., Yao, J., and van Elkan, R. (2023). Geoeconomic Fragmentation: What's at Stake For the EU IMF Working Paper. (23). 245.
Elbaum S., Segal A. (2025). What If China Wins the AI Race? America Should Aim for Victory but Prepare to Finish Second Foreign Affairs June. (13).
Frolov I.E., Kiselev V.N. (2025). Artificial intelligence as a driver of breakthrough technologies: global trends and lessons for Russia. Problems of forecasting. (3). 122-134. doi: 10.47711/0868-6351-210-122-13.
Gary M. AI’s Reliability Crisis. Jun 15, 2025. Retrieved July 10, 2025, from https://www.project-syndicate.org/magazine/generative-ai-fundamentally-unreliable-and-with-no-apparent
Kahl C. H., Mitre J. The Real AI Race. America Needs More Than Innovation to Compete With China. Foreign Affairs. July 9, 2025. Retrieved July 19, 2025, from https://www.foreignaffairs.com/
Kolomiets A. (2025). Will the GAI Using Restrict or Elevate Financial Market Volatility? J Inform Anal. (3). doi: 10.53964/jia.2025001.
Kolomiets A.G. (2024). Economic security of science: contradictory trends
Kumukov A.M., Gundar E.S. (2025). Features of the implementation of the national security concept in modern China. Society: politics, economics, law. (6). 31–38. doi: 10.24158/pep.2025.6.3.
Lee D. (2025). Is the AI Winter Finally Upon Us?. Retrieved September 11, 2025, from https://www.bloomberg.com/opinion/articles/
Novelli C, Casolari F, Hacker P. (2024). Generative AI in EU Law: Liability, Privacy, Intellectual Property, and Cybersecurity Comput Law Secur Rev. 55 (16).
Roach S. Who’s Winning the US-China AI Race? 24.07.2025. Retrieved August 19, 2025, from https://www.project-syndicate.org/commentary/trump-cuts-to-basic-research-in-us-could-enable-china-to-win-ai-race-by-stephen-s-roach
Scherer M. U. Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies (May 30, 2015)Harvard Journal of Law & Technology, Vol. 29, No. 2, Spring 2016. Retrieved June 09, 2025, from http://dx.doi.org/10.2139/ssrn.2609777
Soldatov A., Borogan I. Putin’s New Cyber Empire. Foreign Affairs. August 25, 2025. Retrieved September 10, 2025, from https://www.foreignaffairs.com/
Spence M. (2025). Adam Smith at 250. Retrieved August 20, 2025, from https://www.project-syndicate.org/commentary/adam-smith-economic-specialization-being-reversed-and-challenged-by-ai-by-michael-spence-2025-08/
States Xinhua InstituteColonization of the mind - The Means, Roots, and Global Perils of U.S. Cognitive Warfare (2025). September, 2025. Retrieved September 08, 2025, from https://english.news.cn/20250907/52998b0f27704866af2a66f5df6577dd/80c86fe8e8484a989451aa09d30dabdb.pdf
Zavarukhin V.P., Kiselev V.N. (2025). On Russia’s technological sovereignty in the context of research and technological development performance. Ekonomika nauki. (11). 18–28.
