Экономика искусственного интеллекта: тенденции, комплаенс, глобальное влияние

Воловик А.М.

Статья в журнале

Экономическая безопасность (РИНЦ, ВАК)
опубликовать статью | оформить подписку

Том 7, Номер 9 (Сентябрь 2024)

Цитировать:
Воловик А.М. Экономика искусственного интеллекта: тенденции, комплаенс, глобальное влияние // Экономическая безопасность. – 2024. – Том 7. – № 9. – doi: 10.18334/ecsec.7.9.121752.



Введение. В настоящее время модели машинного обучения (МО) отлично справляются с задачей использования огромной вычислительной мощности для структурирования неструктурированных данных, что приводит к появлению приложений на основе технологий искусственного интеллекта (ИИ), которые получили быстрое и широкое распространение во многих областях. Развитие ИИ оказывает влияние на финансово-экономическую систему и ее стабильность/безопасность, а также на макроэкономические результаты через изменения совокупного предложения (через производительность) и спроса (через инвестиции, потребление и заработную плату) [7; 16].

Появление больших языковых моделей (LLM) вывело генеративный ИИ в активный дискурс. LLM изменили способ взаимодействия людей с компьютерами – от кода и программных интерфейсов к обычному тексту и речи. Эта способность общаться на обычном языке, а также человеческие возможности генеративного ИИ в создании контента захватили массовое воображение. Новым является возможность привносить математический порядок в масштабе повседневных неструктурированных данных, будь то текст, изображения, видео или музыка. Современные разработки ИИ стали возможны благодаря следующим факторам [18]:

– накоплению огромных массивов данных;

– LLM, опирающихся на всю совокупность текстовой и аудиовизуальной информации, доступной в Интернете;

– огромной вычислительной мощности оборудования последнего поколения, например, квантовых компьютеров.

Перечисленные элементы преобразовывают модели ИИ в высокоточные машины прогнозирования, обладающие способностью обнаруживать закономерности в данных и заполнять пробелы. Поэтому потребность во всеобъемлющем регулировании ИИ никогда не была столь актуальной и необходимой.

Цель исследования содержится в выявлении состояния и особенностей регулирования ИИ на глобальном и национальном уровнях.

Задачи исследования:

– провести аналитический обзор разработок в области ИИ;

– рассмотреть риски и этические аспекты нерегулируемой разработки ИИ;

– выявить глобальные перспективы регулирования ИИ.

Практическая значимость работы заключается в том, что в ней комплексно исследована проблематика управления и применения ИИ на глобальном уровне, что является определяющим для развития национального и международно-правового регулирования в данной сфере.

Аналитический обзор разработок в области ИИ. ИИ – это широкий термин, относящийся к компьютерным системам, выполняющим задачи, требующие человеческого интеллекта. Технологические достижения в области машинного обучения (МО) в 1990-х гг. заложили основы современного поколения моделей ИИ. Машинное обучение – это собирательный термин, относящийся к методам, разработанным для обнаружения закономерностей в данных и использования их в прогнозировании или для помощи в принятии решений [20].

Развитие глубокого обучения в 2010-х гг. стало следующим этапом в активном проникновении ИИ в различные сферы экономики. Глубокое обучение использует нейронные сети, лежащие в основе приложений, таких как распознавание лиц и голосовые помощники. Основным строительным блоком нейронных сетей являются искусственные нейроны, принимающие несколько входных значений, и преобразующих их в выходные данные в виде набора чисел, которые можно с легкостью проанализировать [15]. Искусственные нейроны организованы таким образом, чтобы сформировать последовательность слоев, которые можно накладывать друг на друга: нейроны первого слоя принимают входные данные и выводят значение активации. Последующие слои принимают выходные данные предыдущего слоя в качестве входных данных, преобразуют их и выводят другое значение, и так далее. Глубина сети относится к количеству слоев, позволяющих нейронным сетям фиксировать все более сложные взаимосвязи в данных. Веса, определяющие прочность связей между различными нейронами и слоями, в совокупности называются параметрами, которые улучшаются итеративно во время обучения.

Ключевым преимуществом моделей глубокого обучения является их способность работать с неструктурированными данными [4]. Они достигают этого путем «встраивания» качественных, категориальных или визуальных данных, таких как слова, предложения или изображения, в массивы чисел (подход, примененный в масштабе моделью Word2Vec [1]). Эти массивы чисел, то есть векторы, интерпретируются как точки в векторном пространстве. Расстояние между векторами передает некоторую размерность сходства, позволяя производить алгебраические манипуляции с тем, что изначально является качественными данными. Например, вектор, связывающий встраивания слов «big» и «biggest» очень похож на вектор между «small» и «smallest». Word2Vec предсказывает слово на основе окружающих слов в предложении. Текстовый массив можно взять из открытого интернета через базу данных «Common Crawl» [2]. Концепцию внедрения можно в дальнейшем использовать для картирования пространства экономических идей, выявляя скрытые перспективы или методологические подходы отдельных экономистов/институтов. Пространство идей также может быть связано с конкретными политическими действиями, например, решения по денежно-кредитной политике [5].

В отличие от Word2Vec, LLM могут улавливать нюансы перевода нераспространенных языков, отвечать на неоднозначные вопросы. LLM основанные на модели «Transformer» [3] полагаются на механизмы «многоцелевого внимания» и «позиционного кодирования» для эффективной оценки контекста любого слова в документе. Контекст влияет на то, как слова с несколькими значениями отображаются в массивах чисел. Например, «бонд» может относиться к ценной бумаге с фиксированным доходом, связи или ссылке. В зависимости от контекста, вектор встраивания «бонда» геометрически ближе к таким словам, как «казначейство», «нетрадиционный» и «политика». Эти разработки позволили ИИ перейти от систем, решающих одну конкретную задачу, к более общим системам с широким спектром задач.

«LLM являются ярким примером приложений ИИ нового поколения из-за способности генерировать точные ответы» [9]. До появления LLM, модели МО обучались решению одной задачи (например, классификации изображений, анализа настроений или перевода с немецкого языка на английский). Для этого пользователю необходимо было закодировать, обучить и внедрить модель в производство после получения достаточного количества данных. LLM обладает способностями обучения без лишних сложностей. Более того, он демонстрирует значительную универсальность в диапазоне задач, которые он может выполнять. Таким образом, LLM нового поколения позволили людям, используя обычный язык, автоматизировать задачи, которые ранее выполнялись узкоспециализированными моделями.

Возможности новейших моделей ИИ подкреплены достижениями в области данных и вычислительной мощности. Растущая доступность данных играет ключевую роль в обучении и улучшении моделей. Чем больше данных используется для обучения модели, тем более эффективной она становится. Кроме того, модели МО с большим количеством параметров улучшают прогнозы, если обучаются с достаточным количеством данных. В отличие от общепринятого мнения о том, что «чрезмерная параметризация» ухудшает способность моделей к прогнозированию, более поздние данные свидетельствуют о том, что модели МО устойчивы к чрезмерной параметризации [19]. Как следствие, LLM с хорошо спроектированными механизмами обучения могут предоставлять более точные прогнозы, чем традиционные параметрические модели в различных сценариях, таких как компьютерное зрение, обработка естественного языка (NLP) и сигналов [17].

Со временем Word2Vec был заменен другими моделями, которые обеспечивают более осмысленное встраивание (GloVe [4], ELMo [5], BERT [6] и GPT [7]), использующих сложное концептуальное обучение с архитектурами нейронных сетей. Последние модели (BERT и GPT) основаны на архитектуре «Transformer» и называются языковыми моделями. Они используют весь текст в качестве контекста, множественные пути для передачи различных значений и нейронные сети с триллионами настраиваемых параметров. В связи с этим, эффективные модели, как правило, являются более масштабными моделями, которым требуется больше данных.

Очевидно, что существует значительная неопределенность относительно долгосрочных возможностей технологий ИИ. Так, текущие LLM могут не справляться с элементарными логическими рассуждениями и испытывать трудности с контрфактическими рассуждениями. Например, когда им предлагают решить логическую задачу, требующую рассуждений о знаниях других объектах/субъектах и о контрфактических рассуждениях, LLM демонстрируют характерную закономерность неудач. Однако LLM безупречно справляются, когда им предлагают оригинальную формулировку задачи, которую они, вероятно, видели во время обучения. При этом LLM буквально спотыкаются, когда та же самая задача предлагается с минимальными изменениями деталей, таких как имена и даты, что указывает на отсутствие истинного понимания базовой логики утверждений. В итоге, LLM не знают, чего они не знают. LLM также страдают от проблемы галлюцинаций: они могут представить фактически неверный ответ, как если бы он был правильным. Между тем, галлюцинации являются особенностью, а не ошибкой в ​​этих моделях. LLM галлюцинируют, потому что их обучают предсказывать статистически правдоподобное слово на основе специфических входных данных. Следовательно, они не могут отличить то, что лингвистически вероятно, от того, что фактически верно.

Таким образом, оптимисты признают существующие ограничения, но подчеркивают потенциал LLM в контексте того, что они могут превзойти человеческие возможности в определенных областях. В частности, они утверждают, что такие термины, как «разум», «знание» и «обучение», справедливо применяются к таким моделям [3].

Скептики указывают на ограничения LLM в рассуждениях и планировании. Они утверждают, что основное ограничение LLM вытекает из их исключительной зависимости от языка как средства знания [2]. Поскольку LLM ограничены взаимодействием с миром, исключительно посредством языка, им не хватает неявного нелингвистического, общего понимания, которое может быть приобретено только через активное взаимодействие с реальным миром.

Сможет ли ИИ в конечном итоге выполнять задачи, требующие глубокого логического мышления, имеет значение для его долгосрочного экономического воздействия. Оценка того, на какие задачи повлияет (положительно или отрицательно) ИИ, зависит от конкретных когнитивных способностей, требуемых для этих задач [6]. Положительным аспектом в данном процессе выступает интеграция «многоцелевого внимания» и «позиционного кодирования», значительно повышающая производительность языковых моделей. Модели на основе «Transformer» демонстрируют адекватную интерпретацию контекста и управление сложными взаимосвязями в тексте. Результатом является точность и беглость в различных задачах обработки естественного языка. А возможности параллельных вычислений «Transformer», облегчаемые достижениями в технологии графических процессоров позволяют быстро обрабатывать огромные наборы данных и сложную лингвистическую структуру.

Риски и этические аспекты нерегулируемой разработки ИИ. Одно из основных этических соображений при нерегулируемой разработке ИИ касается процессов принятия решений. Алгоритмы ИИ могут демонстрировать предвзятость, дискриминацию или отсутствие прозрачности, если ими не управлять должным образом. Из этого следует, что непреднамеренное усиление существующих общественных предубеждений может подорвать доверие к системам ИИ. В связи с этим, рассмотрим основные риски и этические аспекты нерегулируемой разработки ИИ.

Последствия ИИ для конфиденциальности.

Неконтролируемое развитие технологий ИИ несет значительные риски для личной конфиденциальности. «Поскольку системы ИИ аккумулируют и анализируют огромные объемы персональных данных, существует вероятность несанкционированного доступа, неправомерного использования или утечки данных» [12]. Без надежных правил люди могут столкнуться с повышенным риском нарушения конфиденциальности, что может вызвать опасения по поводу слежки и эксплуатации данных.

Уязвимости безопасности.

Нерегулируемая разработка ИИ может привести к уязвимостям безопасности, которые могут использовать злоумышленники. Уязвимости безопасности могут генерировать враждебные атаки на модели МО для получения несанкционированного доступа и манипулирования системами ИИ. «Отсутствие строгих правил и стандартов в сфере ИИ могут подвергнуть критическую инфраструктуру и конфиденциальную информацию угрозам кибербезопасности» [14].

Отсутствие ответственности.

Без четких правил распределение ответственности за последствия действий ИИ становится сложной задачей. Одним из главных вызовов, является потеря контроля со стороны человека. «По мере того, как машины становятся все более автономными, существует риск того, что они могут принимать решения или совершать действия, не соответствующие человеческим ценностям и этике» [1]. Такое отсутствие контроля вызывает опасения относительно потенциальной возможности систем ИИ причинять вред, как преднамеренно, так и непреднамеренно.

Сокращение рабочих мест и социально-экономические последствия.

Широкое внедрение ИИ без адекватного регулирования вызывает опасения по поводу перемещения рабочих мест и его более широких социально-экономических последствий. «Автоматизация, вызванная развитием ИИ, может привести к потере рабочих мест в определенных секторах» [8]. Перемещение рабочих мест потенциально усугубляет существующее экономическое неравенство. И это требует принятия упреждающих мер для решения проблемы перемещения рабочей силы.

Этическое использование в автономных системах.

В контексте автономных систем, таких как беспилотные автомобили и дроны, развитие ИИ создаёт этические дилеммы. Решения, принимаемые ИИ в критических ситуациях, таких как аварии или чрезвычайные ситуации, требуют тщательного рассмотрения моральных принципов и общественных ценностей. «Отсутствие четких руководящих принципов может привести к неоптимальному этическому выбору в автономных процессах принятия решений» [21].

Отсутствие прозрачности и объяснимости.

Прозрачность и объяснимость являются критически важными аспектами ответственного ИИ. Нерегулируемая разработка ИИ может привести к непрозрачным алгоритмам, что затрудняет понимание обоснования решений, принимаемых на основе ИИ. Отсутствие прозрачности технологий ИИ может препятствовать общественному доверию к системам ИИ. Кроме того, это ограничивает возможность решать проблемы, связанные со справедливостью и предвзятостью.

Очевидно, что нерегулируемая разработка ИИ влечет за собой множество рисков и этических соображений, которые варьируются от предвзятого принятия решений до нарушения конфиденциальности и уязвимостей безопасности. Для того, чтобы оптимизировать риски, связанные с неконтролируемым ИИ, важно установить правила и руководящие принципы для разработки и развертывания подобных систем. Должны быть внедрены механизмы надзора и подотчетности, в целях гарантии того, что системы ИИ работают в приемлемых границах и соответствуют человеческим ценностям. В целом, крайне важно обеспечить, чтобы ИИ оставался под контролем человека.

Глобальные перспективы регулирования ИИ. Политика регулирования ИИ как на национальном, так и на глобальном уровнях все еще находится на стадии становления, и восприятие его текущей эффективности неоднозначно.

В США регулирование ИИ характеризуется секторальным подходом. Федеральные агентства, такие как Федеральная торговая комиссия (FTC) и Национальный институт стандартов и технологий (NIST), фокусируются на конкретных отраслях. Общего федерального регулирования ИИ не существует. Тем не менее, обсуждения как на федеральном, так и на государственном уровне продолжаются.

Азиатские страны, в частности Китай и Южная Корея, приняли политику, ориентированную на инновации, чтобы позиционировать себя как лидеров в разработке ИИ. Например, Китай выпустил руководящие принципы по содействию ответственной разработке ИИ и созданию надежной его экосистемы [22]. И Китай, и Южная Корея отдают приоритет конкурентоспособности, признавая при этом необходимость этических соображений.

В развивающихся странах и странах с формирующейся рыночной экономикой акцент на регулировании ИИ различается. Некоторые страны активно работают над руководящими принципами, другие всё ещё находятся на ранних стадиях понимания последствий ИИ. Их проблемы содержатся в том, чтобы сбалансировать преимущества внедрения ИИ с устранением потенциальных рисков, учитывая национальную специфику и адаптацию нормативных рамок к конкретным потребностям.

Учитывая глобальный характер ИИ, международное сотрудничество приобретает все большую значимость. Такие организации, как Организация экономического сотрудничества и развития (ОЭСР), Всемирная организация здравоохранения (ВОЗ), Большая двадцатка (G20 – The Group of Twenty) и многие другие, содействуют обсуждению международных принципов и стандартов ИИ [10; 11]. Цель состоит в том, чтобы создать гармонизированный подход к управлению ИИ, который выходит за рамки национальных границ.

Несмотря на усилия по международному сотрудничеству, гармонизация глобального регулирования ИИ сталкивается с трудностями. Различные культурные, правовые и этические точки зрения приводят к разногласиям в подходах к регулированию. Преодоление этих разрывов требует постоянного диалога, общих принципов и стремления к поиску взаимосвязанных интересов.

Согласно «Отчету о глобальном регулировании ИИ» [13], эффективность текущей политики в области ИИ в региональном разрезе находится на низком уровне (табл. 1).

Таблица 1. Эффективность текущей политики в области ИИ в решении вопросов разработки, внедрения и использования ИИ (по состоянию на I-е полугодие 2024 г.)

Критерий эффективности
Позиция
Отрасль
Регион
Руководителей
Юристов
Финансовая
Торговля
Технологии
*
**
***
Очень эффективно
32%
26%
36%
26%
37%
31%
31%
28%
Умеренно эффективно
32%
27%
25%
31%
39%
33%
33%
27%
Слабо эффективно
23%
23%
21%
25%
19%
25%
21%
24%
Неэффективно
10%
22%
17%
13%
5%
9%
12%
18%
*Азиатско-Тихоокеанский регион

**Европа (в том числе Россия), Ближний Восток и Африка

***Северная Америка

Источник: [13].

Как видно из таблицы 1, эффективность текущей политики в области ИИ по исследуемым позициям, отраслям и регионам определена по следующим критериям (значения эффективности не превышают уровень 39%, при этом максимальный уровень значения неэффективности составляет 22%):

– очень эффективно – значения находятся в диапазоне 26-37%%;

– умеренно эффективно – значения находятся в диапазоне 25-39%%;

– слабо эффективно – значения находятся в диапазоне 19-25%%;

– неэффективно – значения находятся в диапазоне 5-22%%.

Следует отметить, что эффективность политики в области ИИ в конкретной юрисдикции будет зависеть от объёма инвестиций в ИИ и масштаба разработок программного обеспечения ИИ. На примере США, Китая и России проанализируем значения данных показателей за период 2021-2023 гг. (рис. 1; 2).

Рисунок 1. Инвестиции США, Китая, России в ИИ, млн. долл.

Источник: [22-24].

Как показано на графике (рис. 1), лидирующую позицию занимает США. За анализируемый период 2021-2023 гг. увеличение значения произошло на 112 млн. долл. с положительной тенденцией роста.

У Китая уровень значений по данному показателю меньше, чем у США, но также, за аналогичный период отмечен рост (+39 млн. долл.).

Инвестиции России в ИИ продемонстрировали стабильно низкий уровень значений (0,1 млн. долл.).

Рисунок 2. Разработка программного обеспечения ИИ в США, Китае, России,

% от совокупности всех проектов

Источник: [22-24].

Как видно из рисунка 2, по показателю «разработка программного обеспечения ИИ» США продемонстрировали более высокий уровень значений, чем у Китая и России, увеличение составило 2% от совокупности, реализуемых проектов, у Китая (+1,3%). У России за аналогичный период отмечена отрицательная тенденция (-0,2%).

Проведя аналитический обзор разработок в области ИИ, и рассмотрев основные риски и этические аспекты нерегулируемой разработки ИИ, автор предлагает алгоритм действий по регулированию ИИ на глобальном уровне, с учётом национальных потребностей (табл. 2).

Таблица 2. Алгоритм действий по регулированию ИИ

Действия
Результат
Установить четкие руководящие принципы и правила ИИ
Ответственная разработка ИИ
Обеспечить участие всех заинтересованных сторон в принятии решений по разработке и внедрению ИИ
Человеческий надзор и контроль
Инвестировать в исследования и разработку надежных алгоритмов и архитектур ИИ
Безопасный и надежный ИИ
Работать над установлением глобальных стандартов и нормативных рамок со всеми заинтересованными сторонами
Сотрудничество и кооперация
Источник: составлено автором.

Реализация представленного алгоритма действий по регулированию ИИ позволит:

– реализовать этические вопросы;

– обеспечить защиту прав человека (конфиденциальность, безопасность);

– способствовать подотчетности и ответственности разработок систем ИИ;

– обеспечить правовые рамки ИИ (безопасность и надежность, стандарты и сертификация);

– предотвратить вред, причиняемый системами ИИ;

– обеспечить защиту прав потребителей;

– регламентировать процесс управления данными (использование данных, предотвращение эксплуатации данными);

– содействовать международному сотрудничеству (разработка глобальных стандартов ИИ);

– продвигать инновации и доверие в области ИИ;

– решить социально-экономические проблемы;

– обеспечить инклюзивность;

– содействовать адаптации к развивающимся технологиям.

Заключительные выводы

Быстрое развитие технологий ИИ создает как возможности, так и проблемы. Чтобы эффективно использовать потенциал ИИ, минимизируя при этом риски, необходимо обеспечить его ответственную разработку, имплементацию и адекватное регулирование. Для этого необходимо учитывать этические аспекты, содействовать образованию и повышению осведомленности, внедрять эффективные меры политики в области ИИ. Также следует минимизировать различия в подходах, создающие проблемы в разработке международных стандартов:

– регулирование на основе оценки риска: страны по-разному подходят к регулированию ИИ на основе риска. Некоторые фокусируются на высокорисковых приложениях ИИ, внедряя строгие правила для таких секторов, как здравоохранение и финансы. В то же время другие придерживаются более широкого подхода, охватывающего широкий спектр приложений;

– политика, ориентированная на инновации: существуют различия в том, как страны обеспечивают баланс между потребностью в инновациях и мерами регулирования. К примеру, Китай принимает политику, ориентированную на инновации, другие отдают приоритет нормативным рамкам для устранения потенциальных рисков;

– отраслевое и всеобъемлющее регулирование: отдельные страны, например, США, применяют секторальный подход. Их правила адаптированы к конкретным отраслям. Напротив, другие, например, Европейский союз, стремится к всеобъемлющему регулированию, охватывающему различные сектора и приложения ИИ;

– акцент на защите данных: Европейские страны, движимые GDPR [8], делают сильный акцент на защите данных. Однако другие регионы могут больше концентрироваться на более широких этических соображениях без конкретных правил защиты данных;

– участие правительства: степень участия правительства в регулировании ИИ различается по странам. Например, в Китае, действуют государственные инициативы, в то время как в других, к примеру, в США больше полагаются на саморегулирование отрасли с ограниченным вмешательством правительства;

– культурные и социальные нюансы: культурные и общественные факторы влияют на подходы к управлению ИИ. Разные регионы имеют уникальные взгляды на конфиденциальность, индивидуальные права и роль технологий в обществе. Это приводит к различным приоритетам регулирования.

Таким образом, в целях адекватного глобального управления ИИ необходимо фундаментальное понимание общих тем и национальных различий. Поскольку страны продолжают формировать свои нормативно-правовые базы, международное сотрудничество будет играть решающую роль в решении общих проблем и содействии ответственному развитию ИИ.

[1] Word2vec – общее название для совокупности моделей на основе искусственных нейронных сетей, предназначенных для получения векторных представлений слов на естественном языке. Используется для анализа семантики естественных языков, основанный на дистрибутивной семантике, машинном обучении и векторном представлении слов.

[2] Common Crawl поддерживает бесплатный открытый репозиторий данных веб-сканирования, который может использовать любой желающий.

[3] Архитектура transformer стала прорывом в обработке естественного языка (NLP), заложив основу для разработки продвинутых больших языковых моделей (LLM), таких как BERT (Bidirectional Encoder Representations from Transformers) и GPT (Generative Pre-trained Transformer).

[4] GloVe (от Global Vectors) – модель для распределённого представления слов.

[5] ELMo (Efficient Language Model) – это метод ИИ, используемый для понимания текста.

[6] BERT – это двунаправленная мультиязычная модель с transformer-архитектурой, предназначенная для решения конкретных NLP-задач.

[7] GPT (Generative pre-trained transformer) – это тип нейронных языковых моделей, впервые представленных компанией OpenAI.

[8] GDPR (General Data Protection Regulation) – это общий регламент о защите персональных данных всех физических лиц, которые находятся на территории Европейского союза.


Страница обновлена: 19.09.2024 в 12:01:31