Риски применения искусственного интеллекта в краткосрочном периоде

Лукичёв П.М.1, Чекмарев О.П.2
1 Балтийский государственный технический университет \"ВОЕНМЕХ\" им. Д.Ф. Устинова
2 Санкт-Петербургский государственный аграрный университет

Статья в журнале

Вопросы инновационной экономики (РИНЦ, ВАК)
опубликовать статью | оформить подписку

Том 13, Номер 4 (Октябрь-декабрь 2023)

Цитировать:
Лукичёв П.М., Чекмарев О.П. Риски применения искусственного интеллекта в краткосрочном периоде // Вопросы инновационной экономики. – 2023. – Том 13. – № 4. – С. 2443-2460. – doi: 10.18334/vinec.13.4.119359.

Эта статья проиндексирована РИНЦ, см. https://elibrary.ru/item.asp?id=63633403

Аннотация:
Статья посвящена анализу рисков применения технологий искусственного интеллекта. Значение технологий искусственного интеллекта сейчас возрастает, поскольку они всё сильнее становятся технологией широкого применения XXI века. Однако их использование порождает большие риски для всех участников рынка. Авторы выделяют в исследовании два временных периода: краткосрочный период и долгосрочный период, уделяя основное внимание первому. В краткосрочном периоде выявляются следующие риски использования искусственного интеллекта: деформация существующего рынка труда и усиление неравенства между странами, регионами, отраслями; риски концентрации рынков искусственного интеллекта, риски масштабирования ежедневного вреда, который может быть причинён в Интернете, путём распространения фейковых новостей, выманивания у людей денег, искажения выборных кампаний; риски безопасности фирм, риски переоценённости больших языковых моделей. Авторы уделяют особое внимание разработке и предложению мер по предупреждению или уменьшению мер негативных последствий использования больших языковых моделей. Результаты научного исследования могут быть полезны специалистам в сфере искусственного интеллекта, ученым, сферой научных интересов которых является изучение выявления и предупреждения рисков применения технологий искусственного интеллекта

Ключевые слова: искусственный интеллект, риски, технология широкого применения, краткосрочный период, меры предупреждения рисков, государственное регулирование

JEL-классификация: O31, O32, O33

В издательстве открыта вакансия ответственного редактора научного журнала с возможностью удаленной работы
Подробнее...



Введение. Экономический подход к анализу применения искусственного интеллекта (ИИ) предполагает сопоставление Издержек и Выгод. Только тот экономический процесс, в котором выгоды превышают издержки, может считаться эффективным. Такое сравнение невозможно без анализа рисков внедрения технологий искусственного интеллекта. С этих общих позиций использование искусственного интеллекта, как и любой инновационной технологии, не имеет однозначного сопоставления «Издержки – Выгоды» ни в краткосрочном периоде, ни в долгосрочном периоде, «вписываясь» в общий «парадокс производительности». Сегодняшние большие языковые модели превращаются во всё большей мере в технологии общего назначения.

Выявление рисков применения технологий искусственного интеллекта в хозяйственной практике очень важно, поскольку оно помогает улучшать качество экономических решений. Здесь можно показать следующую причинно-следственную цепочку. Технологии ИИ снижают стоимость прогнозов и поэтому человеческое суждение о скрытых возможностях заменяет лучшие прогнозы [1], а лицо, принимающее решения, обнаруживая некоторые скрытые издержки, возвращает своё решение к безопасному действию. Технологии искусственного интеллекта, как и любая мощная технология, несут в себе много рисков и требуют ответственного применения. С экономической точки зрения целесообразно разделить существующие риски использования технологий искусственного интеллекта на:

· риски на микроуровне

· риски на макроуровне.

В экономике традиционно под микроуровнем подразумевается уровень фирмы, домашнего хозяйства, а под макроуровнем – уровень всей национальной экономики в целом. Также целесообразно выделить в экономическом анализе рисков применения технологий искусственного интеллекта краткосрочный период и долгосрочный период. В данной статье акцент будет сделан на рисках микроуровня в краткосрочном периоде. Гипотеза исследования - выявленные риски применения технологий искусственного интеллекта на микроуровне в краткосрочном периоде вполне могут быть скомпенсированы существующими антикризисными мерами с учётом специфики действия больших языковых моделей. Цель данной статьи: выявить основные риски применения искусственного интеллекта в современной экономике и оценить возможности уменьшения с учетом их использования как технологии общего назначения в краткосрочном периоде.

Искусственный интеллект – технология широкого применения

Концепция технологии широкого применения (ТШП) как технологии, которая пронизывает экономику и стимулирует изобретения как эндогенно, так и посредством взаимодополняемости, была введена в 1995 г. Бреснахан и Трайтенберг. Три общих характеристики, которыми обладают ТШП: проникновение в экономику, способность к быстрому внутреннему совершенствованию и способность порождать распространение производительности между секторами за счет взаимодополняемости [2 Bresnahan and Trajtenberg, 1995], [3 Lipsey et al., 2005]. Примерами технологий широкого применения, которые являются движущими силами экономического роста, служат электричество (ХХ век) и информационные коммуникационные системы (ХХI век). Можно вспомнить формулу В. И. Ленина: «…плюс электрификация всей страны».

Является ли искусственный интеллект технологией широкого применения? Это принципиальный вопрос макроэкономической политики. Для России ответ на данный вопрос имеет первостепенное значение с точки зрения обоснования необходимости перехода от «инерционного пути развития» к «инновационному пути развития». В прогнозе проправительственного ЦМАКП развития народного хозяйства РФ на ближайшие годы [4] отмечается существование проблемы одновременной «трудоизбыточности и трудонедостаточности» на рынке труда будущего. На наш взгляд, последовательное применение ИИ, как технологии широкого применения (ТШП) во всех отраслях российской экономики способно решить эту проблему.

Должно ли национальное государство больше тратить средств на развитие науки и, в частности, на исследования в области ИИ, если действует «парадокс производительности» и прямое влияние на экономический рост нельзя измерить? Да, должно, чтобы не быть потерпевшим от усиления экономического неравенства между странами вследствие применения технологий искусственного интеллекта.

С этих позиций сокращение средств государства на развитие ИИ – это шаг назад. Действует известный из макроэкономики «парадокс бережливости» [5]. Если один человек начинает экономить, то он снижает спрос на товары и услуги. Если все граждане страны начинают экономить, то снижается совокупный спрос на товары, и тем самым часть произведенной продукции остаётся нереализованной, лишая дохода этих же жителей страны. Предприятия и их работники вынуждены сокращать объёмы выпуска, откладывать инвестиционные проекты. Поэтому сокращение расходов в период кризиса лишь усугубляет тяжесть экономического положения. Например, вследствие мирового финансового кризиса 2007–2009 гг. в наиболее тяжёлом положении оказались Греция, Португалия и другие страны Южной Европы. МВФ и ЕБРР рекомендовали в качестве условия получения этими странами займов жёсткую политику сокращения государственных расходов за счёт снижения, прежде всего, социальных пособий и льгот. Однако эти сокращения нанесли экономикам данных стран ещё больший вред за счёт снижения платёжеспособного спроса населения.

Использование компаниями технологий ИИ порождает риски для всех участников рынка: последствия могут быть разрушительными как для самих фирм, так и для других участников рынков, и для потребителей. Кроме того, могут возникать и их побочные эффекты.

В краткосрочном периоде можно выделить следующие риски использования в экономике технологий искусственного интеллекта:

· риски деформации существующего рынка труда и усиления неравенства в доходах между странами, отраслями, регионами,

· риски концентрации рынков искусственного интеллекта,

· риски безопасности фирм и создания ложной информации,

· риски переоценённости ИИ.

Возможно существование и иных рисков, но мы выделили основные на сегодняшний момент времени.

Риски деформации существующего рынка труда и усиления неравенства в доходах между странами, отраслями, регионами из-за применения технологий искусственного интеллекта

После появления с ноября 2022 года больших языковых моделей (БЯМ) современный рынок труда начал подвергаться серьёзной модификации. С одной стороны, усилились опасения работников за сохранения своих рабочих мест. «Глобальный поиск Google по запросу «безопасна ли моя работа?» удвоились за последние месяцы, так как люди опасаются, что они будут заменены большими языковыми моделями (llms). [6]. Риски ликвидации рабочих мест и роста безработицы из-за применения технологий искусственного интеллекта вряд ли являются оправданными. Весь предыдущий опыт внедрения человечеством новых технологий свидетельствует об обратном, а страны, которые сегодня располагают самым высоким уровнем использования технологий в мире, - Южная Корея, Сингапур, Япония, - имеют и самый низкий уровень безработицы. Более реальным является процесс модификации характера труда работников современных предприятий. Подробно он был проанализирован в [7] (Lukichev, Chekmarev, 2023).

Остановимся дальше на нескольких изменениях характера труда из-за применения больших языковых моделей. Перемены будут происходить крайне неравномерно и затронут не только низкоквалифицированных работников, но и высококвалифицированных специалистов. Есть позитивное влияние в виде повышения производительности, улучшении условий труда и увеличении ценности своего рабочего места со стороны тех работников, которые осваивают технологии ИИ в своей профессиональной деятельности. Они смогут производить больше продукции или оказывать качественнее услуги, повышая тем самым ценность результатов своего труда. Как следствие, заработная плата и условия труда таких специалистов улучшатся. Это позитивное влияние потенциально может затронуть все отрасли экономики. Как отмечала в своем отчёте консалтинговая компания McKinsey три четверти ожидаемой ценности, создаваемой генеративным искусственным интеллектом, приходится на четыре бизнес-функции, лежащие в основе большинства крупных предприятий: исследования и разработки, разработка программного обеспечения, маркетинг и обслуживание клиентов [8]. Любая крупная компания с внутренними базами данных, используемыми для руководства сотрудниками, как американская, так и российская, может найти применение чат-боту с искусственным интеллектом.

Следствием такого продвижения технологий ИИ будет замещение некоторых рутинных работ машинами и необходимость перестройки организации бизнеса внутри компаний. Большие языковые модели, такие как ChatGPT и их аналоги, вполне могут брать на себя решение части функциональных обязанностей работников высококвалифицированного труда. Например, исследование банка Goldman Sachs установило, что 44% юридических задач может выполнять искусственный интеллект [9]. Это позволяет интенсифицировать работу крупных юридических компаний, усиливая творческие и личностные характеристики труда специалистов взамен рутинных характеристик. Если большая языковая модель может за 20 секунд выполнить задачу, на которую у десятка сотрудников ушло бы по 50 часов у каждого, то зачем крупным фирмам продолжать нанимать десятки сотрудников? Конечно, в движении по этому пути возникают побочные эффекты. Первый из них связан со склонностью чат-ботов писать юридические заключения, основываясь не только на реальной, но и на выдуманной информации. Второй побочный эффект возникает из-за непреднамеренной передаче информации, подлежащей конфиденциальности адвоката и клиента, в алгоритмы. Эти проблемы вполне разрешимы. Последний за счёт более совершенных технологий. Первый побочный эффект устраняется за счёт мониторинга результатов сотрудником и внесения изменений в процесс машинного обучения чат-бота.

Следствием происходящей модификации рынка труда является снижение отдачи от труда и природных ресурсов. Страны и регионы, благополучие которых построено сейчас на экспорте природных ресурсов, не могут консервировать это положение, а должны максимально менять структуру своей экономики с учетом новых технологий. Отрасли обрабатывающей промышленности и сферы услуг более восприимчивы к внедрению новейших технологий. Не случайно страны Персидского залива проводят столько технологических выставок, приветствуя различные нововведения, а в Абу-Даби выпустили самую мощную в мире большую языковую модель с открытым исходным кодом и вскоре запустят компанию по разработке искусственного интеллекта. Новые технологии имеют тенденцию быть трудосберегающими, ресурсосберегающими и порождать динамику «победитель получает все» (winner-takes-all), которая дает преимущество развитым странам [10] (Korinek, Stiglitz, 2021). Поэтому перед Российской Федерацией стоит неотложная задача перехода от «инерционного пути развития», основанного на экспорте углеводородов, к «инновационному пути развития». Надо активно использовать конкурентные преимущества инновационной̆ системы России: высокий̆ уровень человеческого потенциала (охват высшим образованием, насыщенность экономики высококвалифицированными кадрами), значимые объёмы финансирования исследований и разработок, сравнительно высокая активность в отношении регистрации результатов интеллектуальной̆ деятельности [11].

Риски концентрации рынков искусственного интеллекта

Риски концентрации рынков искусственного интеллекта связаны с тем, что они сегодня монополизированы несколькими ведущими цифровыми компаниями и по сути блокируют развитие свободной конкуренции. Об этом свидетельствуют многочисленные исследования. Так, Hötte и др. [12] (Hötte, Tarannum, Verendel, Bennett, 2023) выявили четыре подхода к патентной классификации искусственного интеллекта и пришли к выводу, что «все направления сходятся во мнении, что изобретения в области ИИ в значительной степени сконцентрированы в руках нескольких фирм, и это имеет последствия для политики в области конкуренции и регулирования рынка». Этот же тренд полностью подтверждается и в российских реалиях. Проведенный в РФ патентный анализ показал, что цифровые компании страны вносят значимый вклад в развитие цифровых технологий. Однако обеспечен он, по большей части, довольно узкой группой «национальных чемпионов». На долю тройки лидеров (Яндекс, «Лаборатория Касперского» и Сбер) приходится около 76% действующих «цифровых» патентов на изобретения, которые принадлежат компаниям, включенным в рейтинг, и почти 95% – на промышленные образцы в этой области [13].

Реальным воплощением рисков концентрации рынков ИИ служит следующий кейс. Применение искусственного интеллекта и использование больших данных, породило усиление концентрации в сфере здравоохранения. Покажем это на примере сферы медицинских услуг в США. В Америке, здравоохранение, наряду с технологиями и энергетикой, является сейчас пулом для сверхприбыли по сравнению с его размером. Четыре десятилетия назад более восьми из десяти больниц были некоммерческими и располагались в одном месте. Сейчас более шести из десяти клиник принадлежат разросшимся коммерческим больничным сетям или академическим сетям, таким как Steward Health Care или Indiana University Health [14]. Анализ, проведенный Мартином Гейнором (Martin Gaynor), показал, что рынки здравоохранения не функционируют так хорошо, как могли бы или должны были. Цены высоки и постоянно растут, практика ценообразования вопиющая, качество ниже оптимального. Произошла большая консолидация в здравоохранении. За последние двадцать лет произошло почти 1600 слияний больниц, из них более 450 с 2012 года. В результате в большинстве местных районов теперь доминирует одна крупная мощная система здравоохранения, например в районе Бостона, - компания Partners, в Питтсбурге, - компания UPMC, и в Сан-Франциско, - Sutter. Последствиями этого стала монополизация сферы здравоохранения и ущемление рыночных принципов. Обширные данные исследований показывают, что консолидация между близкими конкурентами приводит к существенному росту цен для больниц, страховых компаний и врачей, не компенсируя при этом повышения качества или повышения эффективности. Столь же серьёзно, если не больше, данные показывают, что качество обслуживания пациентов страдает от отсутствия конкуренции [15] (Gaynor, 2019). То есть получается, что распространение телемедицины, основанной на технологиях искусственного интеллекта и больших данных, привело к резкому усилению концентрации в здравоохранении, сделав отрасль третьей по объёму сверхприбыли в США. Однако для потребителей это привело к удорожанию медицинских услуг и к ухудшению их качества. В той или иной форме такие же последствия возможны во всех сферах народного хозяйства.

В соответствии с концепцией Трайтенберга [16] (Trajtenberg, 2018) существуют два вида инноваций: инновации, заменяющие человека (ИЗЧ) и инновации, улучшающиеся возможности человека (ИУЧ). Первые предполагают снижение затрат на существующие технологии и, как следствие, увеличение текущей прибыли. Вторые же предполагают совершенствование потенциала человека, как работника. Например, у врачей улучшаются возможности для диагностики, в частности, для чтения и интерпретации рентгеновских снимков, компьютерной томографии и других методов визуализации. Круг задач, которые люди и машины могут решать поодиночке, несомненно, уже, чем набор задач, которые люди и технологии искусственного интеллекта могут решать совместно. Инновации, улучшающие возможности человека, способны не только полнее раскрыть его креативные и производительные способности, но и создать новые формы организации труда, новые технологии, делающие бесполезными существующие виды производства и распределения товаров, а часто и сами эти товары. Например, можно было сколько угодно улучшать породы лошадей и совершенствовать коляски как транспортные средства, но тех возможностей, которые дали автомобили с двигателями внутреннего сгорания, достичь было невозможно.

Основная проблема сегодняшних рынков искусственного интеллекта состоит в том, что стартапы, создающие собственные большие языковые модели (БЯМ) (Large Language Models - LLMs) имеют отношения с технологическими гигантами симбиотического характера. OpenAi тесно связана с Microsoft, крупным инвестором, который использует технологии для улучшения своего программного обеспечения и поисковых продуктов. Google, принадлежащий Alphabet, имеет значительную долю в Anthropic. Сами технологические гиганты, - Alphabet, Amazon, Apple, Meta и Microsoft, - для которых технологии искусственного интеллекта лишь одна из форм приложения капитала, господствуют над американским бизнесом. Пять фирм доминируют в индексе фондового рынка S&P 500, на долю которых в совокупности приходится 9% продаж, 16% чистой прибыли и 22% рыночной капитализации. В 2022 году их капиталовложения в размере 360 миллиардов долларов составили более десятой части всех американских инвестиций в бизнес [17].

Цифровые гиганты с большей вероятностью развернут технологию, чтобы улучшить свои существующие продукты, чем полностью их заменят. Они будут стремиться защитить свой основной бизнес (корпоративное программное обеспечение в случае Microsoft и поиск в Google). [18]. В результате глобальная экономика будет недополучать выгоды, которые были бы возможны в отсутствии избыточной концентрации рынков, поскольку фактическая технология может оказаться менее революционной, чем могла бы быть. Для примера можно вспомнить, что технологические гиганты уже предлагали решения проблемы, которые по качеству и популярности проиграли свободному рынку. Компания Google создала многоязычную энциклопедию Google Knol (закрыта в 2012 г.), а Microsoft организовала цифровую мультимедийную энциклопедию Encarta (срок действия с 1993 года по 2009 год). Обе они были основаны на правах частной собственности и потерпели крах, проиграв Wikipedia, которая была создана на правах свободной собственности и свободного участия. Кроме того, как отмечал Бриньольфссон, чем больше технологий используется для замены, а не для улучшения рабочей силы, тем сильнее может стать неравенство и тем больше недовольства, которое подпитывает деструктивные политические инстинкты и действия [19] (Brynjolfsson, 2022).

Фактическая концентрация рынков ИИ свидетельствует, что сейчас искусственный интеллект распределён очень неравномерно. Якобидес и др. демонстрируют заметную и растущую концентрацию ИИ и тот факт, что многие крупные технологические фирмы охватывают весь путь от инфраструктуры до приложений, что также обеспечивает большую часть соответствующих научных преимуществ [20] (Jacobides, Brusoni, Candelon, 2021). То есть в условиях монополизации рынка получение цифровыми гигантами средств государственной поддержки на развитие технологий искусственного интеллекта, как Технологии широкого применения (ТШП), будет усиливать монополизацию рынка и повышать барьеры к входу для новых игроков.

Риски безопасности фирм и создания ложной информации

Расширяющееся в 2023 году применение больших языковых моделей, таких как ChatGPT и её аналогов, по-новому поставило вопросы безопасности компаний. Целый ряд компаний, включая Apple, Samsung, JPMorgan Chase запретили или сильно ограничили использование ChatGPT. «В мае 2023 г. Samsung обнаружила, что сотрудники загрузили конфиденциальный код в Chatgpt. Проблема заключается в том, что эта информация может храниться на внешних серверах фирм, использующих модели, таких как Microsoft и Alphabet” [8]. Поэтому среди фирм, использующих технологии искусственного интеллекта, усиливается тренд на внутреннее обучение. Экономически это означает, что преимущество в конкурентной борьбе получают те компании, которые внедряют специализированные (отраслевые модели) чат-боты. Но это требует, в отличие от использования Chatgpt, значительных инвестиций, которые не под силу большинству средних и малых фирм. Отсюда вытекает рост неравенства доходов (и возможностей) среди предприятий отрасли. Поэтому увеличивается риск монополизации отдельных отраслей и неравенства между отраслями, регионами, странами.

Искусственный интеллект предоставил новые возможности для снижения неопределенности за счёт использования данных для быстрого реагирования на изменяющиеся условия. Это становится возможным сразу же, как только поступают свежие данные. Одновременно новые сведения искажают сумму показателей, накопленных большой языковой моделью, внося качественные изменения. Поскольку процесс принятия решений моделями искусственного интеллекта существенно отличается от человеческого мышления, то результаты «работы» ИИ могут быть неожиданными для их создателей и нести существенные риски применения. Для человека характерно, что больший объём информации об явлении (процессе) и больший период обучения приводят к лучшим итогам. Для больших языковых моделей это оказалось не так. Исследованиями зафиксировано, что более длительный период machine learning (машинного обучения) и больший объём получаемых данных приводят зачастую к деградации результатов их работы. Почему? Дело в том, что у машинного обучения наряду с несомненными достоинствами есть и существенные недостатки. Так, те входные данные, которые привели к одному результату вчера, могут зарегистрировать другой результат завтра, потому что алгоритм был изменён данными, которые он получил в промежуточный период.

GPT-3.5 и GPT-4 — две наиболее широко используемые сегодня большие языковые модели (LLM). Исследование Чен и др. [21] (Chen, Zaharia, Zou, 2023) показало, что обновление данных в них приводит к противоречивым результатам. Ученые оценили версии GPT-3.5 и GPT-4 за март 2023 г. и июнь 2023 г. с помощью тестирования по семи параметрам. Среди задач, решаемых БЯМ ((LLMs), были: 1) математические задачи, 2) деликатные/опасные вопросы, 3) опросы общественного мнения, 4) многоэтапные вопросы, требующие больших знаний, 5) генерация кода, 6) тесты на получение медицинской лицензии США и 7) визуальное мышление. Как видно даже из этого перечисления проверка эффективности работы больших языковых моделей была проведена комплексно. Исследователи выявили, что производительность и поведение как GPT-3.5, так и GPT-4 могут сильно меняться со временем. Например, GPT-4 (март 2023 г.) хорошо справился с определением простых и составных чисел (точность 84%), но GPT-4 (июнь 2023 г.) плохо справился с этими же вопросами (точность 51%). Частично это объясняется снижением удобства GPT-4 следовать подсказкам цепочки мыслей. Интересно, что GPT-3.5 в июне справлялась с этой задачей гораздо лучше, чем в марте. В июне GPT-4 стал менее охотно отвечать на деликатные вопросы и вопросы опросов общественного мнения, чем в марте. В июне GPT-4 лучше справлялся с многоэтапными вопросами, чем в марте, а производительность GPT-3.5 в этой задаче упала. И в GPT-4, и в GPT-3.5 в июне 2023 г. было больше ошибок форматирования при генерации кода, чем в марте [21]. Таким образом, мы приходим к двум выводам:

1) нужен постоянный мониторинг работы больших языковых моделей,

2) необходимо качественно новое государственное регулирование возникшей проблемы.

Примером (прообразом) последнего могут служить некоторые регулирующие органы, в частности U.S. Food and Drug Administration (Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США), разрешившие использовать в них только «заблокированные» алгоритмы, которые не учатся каждый раз при использовании продукта и, следовательно, не меняются [22] (Candelon, di Carlo, De Bondt, Evgeniou, 2021). «Новое государственное регулирование» вызовет несколько последствий, как для потребителей, так и для фирм-производителей. Для потребителей будет определённая гарантия на применяемые ими медицинские устройства или принимаемые лекарства. Для компаний возникнет необходимость параллельно запускать две версии одного и того же алгоритма: одну зафиксированную версию для коммерческого использования, которая была одобрена регулирующими органами, и вторую «перспективную», которая будет улучшаться по мере машинного обучения и получения новых данных. В идеале «перспективная» версия после утверждения регуляторами заменит «заблокированные» алгоритмы. В любом случае это взаимодействие с регулирующими органами будет играть всё возрастающую роль как в конкуренции на рынке, так и в совершенствовании технологий ИИ.

Риски переоценённости ИИ

Сейчас имеет место переоценённость технологий искусственного интеллекта в экономике. Так, по сравнению с началом года, цена акций «большой пятерки» — Alphabet, Amazon, Apple, Meta и Microsoft — подскочила на 60%, если измерять её в равно взвешенной корзине [8]. В основе ценового роста лежит вера инвесторов в возможности больших языковых моделей (llms) как новой волны технологий. Традиционно предполагается, что те фирмы, которые наилучшим образом и быстрее применят в своей бизнес-практике новейшие технологии, - в данном случае, - искусственного интеллекта, захватят большую долю рынка и увеличат свою прибыль.

Это предположение подтверждается некоторыми исследовательскими данными. Так, в исследовании А. Эйсфельдт и др. выявлено, что влияние выпуска ChatGPT на стоимость компаний было большим, что привело к разнице в доходах компаний примерно на 0,4% в день, что соответствует более чем 100% в годовом исчислении [23] (Eisfeldt, Schubert, Zhang, 2023). Данные различия были обнаружены как внутри, так и между отраслями и демонстрируют большие отличия, которые коррелируют с характеристиками фирмы, такими как организационный капитал или валовая прибыль.

Всё это очень напоминает известные из макроэкономики этапы развития финансовых рынков по Х. Мински. На первом этапе, - «замещение», - происходит нечто, что меняет восприятие рынков инвесторами. В конце 1990-х годов это был Интернет, на использовании которого, как казалось, можно делать деньги бесконечно, сейчас – это искусственный интеллект. На втором этапе, - «подъём», - надежды инвесторов оправдываются и данные Эйсфельдт и др. статистически подтверждают это. Фактически сейчас экономика находится на переходе к третьему этапу по Х. Мински, [24]. - эйфории. Однако будет ли так на самом деле, или экономика быстро скатится к четвёртому и пятому этапам, «получение прибыли» и «паника», - неясно. На четвёртом этапе инвесторы осознают, что рост стоимости акций не может продолжаться вечно, и сбывают их. На пятом этапе люди массово стараются избавиться от инвестиций и возникает кризис ликвидности.

Эйфория от применения технологий искусственного интеллекта в бизнесе во многом подкрепляется тем, что самые близкие к технологии люди — люди, объясняющие её публике — живут, образно говоря, одной ногой в будущем. Иногда они видят то, что, по их мнению, произойдет так же, как и то, что происходит сейчас. Они склонны, по нашему мнению, как Пигмалион оживлять своих Галатей. Однако, как отмечала профессор Элисон Гопник (Alison Gopnik): «Вычислительные мощности нынешнего ИИ. такие как большие языковые модели, не делают более вероятным, что они разумны больше, чем камни или другие машины» [25].

Какими будут экономические последствия развития искусственного интеллекта зависит от многих причин. Одна из них, - скромное реальное применение. Так, в 2020 году на промышленных роботов, для которых чаще всего и применяются алгоритмы искусственного интеллекта, было потрачено менее 1% мировых капитальных затрат. Люди больше тратят на секс-игрушки [26].

Завышенные ожидания доходов от применения технологий искусственного интеллекта могут стать причиной кризиса всей экономики.

Меры по предупреждению и/или уменьшению негативных последствий применения технологий искусственного интеллекта

Меры по предупреждению рисков ИИ должны проводиться на нескольких уровнях, - уровне предприятий, уровне отрасли, уровне национальной экономики, глобальном уровне, - и быть взаимосвязанными между собой. Компаниям следует играть активную роль в написании сводов правил для алгоритмов искусственного интеллекта. Как отмечают Канделон и др., директорам по управлению рисками, возможно, придётся расширить свои полномочия, включив в них мониторинг автономных процессов ИИ и оценку уровня юридических, финансовых, репутационных и физических рисков, на которые компания готова взять на себя эволюционирующий искусственный интеллект. [22 Candelon, 2021]. Наряду с уровнем фирм должны быть созданы национальные системы для постоянного мониторинга и оценки безопасности, производительности и воздействия приложений искусственного интеллекта. Здесь важно создание именно национальных служб, поскольку требования разных стран могут и должны отличаться, но они должны быть интегрированны впоследствии с общемировыми органами.

Основное место в предупреждении рисков применения технологий искусственного интеллекта и/или снижении негативных последствий занимает государственное регулирование на национальном уровне или на глобальном уровне. Остановимся более подробно на национальном уровне поскольку глобальный уровень регулирования в создавшейся международной обстановке является крайне проблематичным.

На национальном уровне государственное регулирование должно быть нацелено на ужесточение требований к работе компаний, действующих на рынках искусственного интеллекта. На наш взгляд, необходим плавный переход к введению чётких и понятных рамок действия фирм на рынках ИИ. Прежде всего, должно быть введено лицензирование компаний, занимающихся искусственным интернетом. Оно должно включать в себя перечень необходимых требований, подобный существующему лицензированию у производителей лекарств. Эти рамки должны быть тщательно продуманы с анализом всех возможных последствий, поскольку существует большая вероятность монополизации рынка ИИ технологическими гигантами и создание барьеров к входу новых компаний.

Кроме того, к выпускаемым большим языковым моделям, которые взаимодействуют с конечными потребителями, должны предъявляться следующие ограничения.

· Отдельные продукты и услуги, потребление которых непосредственно отражается на здоровье людей, как, например, пищевые продукты или фармацевтические препараты, должны проходить дополнительное исследование, чтобы продемонстрировать свою безопасность.

· Предоставление системами ИИ объяснения своих решений во всех спорных случаях, иначе «размывается» существующая сейчас персональная ответственность за нарушения. Как справедливо отмечали Мительштадт и др, алгоритмические системы создают проблемы подотчетности и моральной ответственности, когда неясно, какой моральный агент в процессе несет (или разделяет) ответственность за результаты системы [27] (Mittelstadt, Allo, Taddeo, Wachter, Floridi, 2016). Это особенно важно при катастрофических последствиях действий неисправных машин с использованием алгоритмов ИИ, которые как автономные автомобили или медицинские приложения могут привести к гибели людей [28] (Ayling, Chapman, 2022). Кроме того, это может иметь судьбоносное значение в таких приложениях как правоохранительная деятельность, кредитный рейтинг, трудоустройство студентов. По нашему мнению, должна быть создана специальная система с ранжированием степени необходимости объяснений большими языковыми моделями (объяснение первого уровня, объяснение второго уровня, объяснение третьего уровня). Кроме того, на уровне моделей ИИ, можно использовать существующий сейчас опыт с Интернетом, когда на дистрибьютеров возлагается ответственность за устранения неправды, заявлений о клевете или злонамеренных обвинений. В целом, это позволит улучшить контроль и повысит доверие к использованию технологий искусственного интеллекта.

· Законодательный запрет моделям ИИ при взаимодействии с людьми выдавать себя за людей. Здесь важно не только введение закона, сколько создание действенного мониторинга за его соблюдением. Последнее означает что проверка должна быть быстрой, а наказание существенным.

Предлагаемые авторами меры, конечно, нуждаются в дальнейшем обсуждении. Однако, чем быстрее они будут введены в действие, тем больших потерь от рисков применения технологий искусственного интеллекта удастся избежать.

Заключение и последующие исследования

Инвестиции в искусственный интеллект и их эффективность во многом зависят от анализа рисков внедрения ИИ, того насколько искусственный интеллект является технологией общего назначения, мер государственного регулирования и выгодности применения больших языковых моделей по сравнению с существующими сейчас технологиями. Анализ рисков использования искусственного интеллекта в краткосрочном периоде показывает, что вполне возможно их нейтрализовать с помощью существующих сегодня традиционных мер с учётом специфики ИИ.

По мере того, как Большие языковые модели демонстрируют всё больше преимуществ для экономических агентов, применяющих их в различных сферах экономики, то всё острее встаёт вопрос о государственном регулировании. LLMs (БЯМ), и прежде всего, победное распространение ChatGPT, демонстрируют создание качественно новой ценности алгоритмов искусственного интеллекта, возможность перехода от «экзотической игрушки» к производству массовых, прибыльных продуктов. Из экономической истории можно вспомнить Генри Форда, который создал модель “Ford-T” и тем самым новую высоко прибыльную отрасль, реализовав свой слоган «автомобиль – это не роскошь, а средство передвижения». Или, если обратиться к концепции жизненного цикла товара / услуги, то для искусственного интеллекта сейчас — это переход от стадии внедрения к стадии роста.

Исследования безопасности применения технологий искусственного интеллекта только начинаются. В них выделяются четыре отдельных области: надёжность, мониторинг, согласование и системная безопасность [29] (Hendrycks, Mazeika). Как надеются Хендрикс и др., эти четыре области исследований представляют собой высокоуровневые приоритеты исследований в области безопасности, которые могут обеспечить глубокую защиту от рисков ИИ [30] (Hendrycks, Carlini, Schulman, Steinhardt, 2021). Предлагаемые нами меры по предупреждению и/или уменьшению негативных последствий применения технологий искусственного интеллекта представляют собой необходимые инструменты для первоначального государственного регулирования.

Возможное усиление государственного регулирования не должно препятствовать развитию конкуренции в сфере создания и применения технологий искусственного интеллекта, создавая (создавать) барьеры к входу для новых участников рынка. Для российских компаний важно не только участие в моделях типа llama, но и взятие курса на создание своих отраслевых чат-ботов. Напомним, что lama – это llm (Большая языковая модель), разработанная Meta в марте 2023 г. Её разработчики с открытым исходным кодом уже «могут создавать модели генеративного ИИ, которые почти так же хороши, как существующие проприетарные, и стоят в сотни раз дешевле» [18]. Поэтому вопрос о том, будут ли технологии искусственного интеллекта «закрытым клубом» цифровых гигантов, поддержанных государственным регулированием, или они будут развивать инновации обоих видов на конкурентных рынках, остаётся открытым. Для Российской Федерации, учитывая, что фирмы США и КНР ушли далеко вперед в развитии ИИ, важна государственная поддержка «национальных чемпионов».

В целом, применение искусственного интеллекта для решения отдельных частных проблем является выгодным за счёт снижения издержек на производство и реализацию товаров. То есть LLMs как инновации, заменяющие человека, могут и должны расширять области своего применения. Выявленные нами на микроуровне риски использования алгоритмов искусственного интеллекта вполне могут быть уменьшены за счёт существующих технологий управления рискам и соответствующей переподготовки кадров.


Источники:

1. Agrawal A., Gans J., Goldfarb A. Goldfarb A. Human judgement and AI pricing // AEA Papers and Proceedings. – 2018. – p. 58–63.
2. Bresnahan T. F., Trajtenberg M. General purpose technologies ’Engines of growth’? // Journal of econometrics. – 1995. – № 1. – p. 83–108.
3. Lipsey R. G., Kenneth I Carlaw K. I., Bekar C. T. Economic trans- formations: general purpose technologies and long-term economic growth. - Oxford University Press, Oxford, 2005.
4. Виноградова Е. В ЦМАКПе назвали пять узлов «противоречий» в экономике России на 20 лет. [Электронный ресурс]. URL: https://www.rbc.ru/economics/29/06/2023/649c0c0a9a7947e6cc36e044?ysclid=lndeqounco291299730 (дата обращения: 01.10.2023).
5. Vermann E. K. Wait is saving good or bad? the Paradox of thrift // Page One Economics. – 2012.
6. Boy cries wolf. The Economist. June 17th, 2023
7. Лукичев П.М., Чекмарев О.П. Вызовы экономики искусственного интеллекта традиционному рынку труда // Вопросы инновационной экономики. – 2023. – № 2. – c. 785-802.
8. ChatGPT Inc. The Economist. July 1st 2023
9. First thing we do, let’s bot all the lawyers. The Economist. June 10th 2023
10. Korinek A., Stiglitz J. Artificial intelligence, globalization, and strategies for economic development // National Bureau of Economic Research. – 2021. – p. 41.
11. Власова В. В., Гохберг Л. М., Дитковский К. А. Российская наука в цифрах: 2023. / Нац. исслед. ун-т «Высшая школа экономики». - М. : НИУ ВШЭ, 2023. – 48 c.
12. Hötte K., Tarannum, T., Verendel V., Bennett, L. (2023). AI Technological Trajectories in Patent Data
13. Рейтинг цифровых компаний по числу «цифровых» патентов. Цифровая экономика, Экспресс-информация. ИСИЭЗ НИУ ВШЭ. 07.06.2023. [Электронный ресурс]. URL: https://issek.hse.ru/news/838422953.html (дата обращения: 12.09.2023).
14. How bad is being big? The Economist. July 15th, 2023
15. Gaynor M. Diagnosing the Problem: Exploring the Effects of Consolidation and Anticompetitive Conduct in Health Care Markets. - Washington, DC, 2019.
16. Trajtenberg M. Artificial intelligence as the next GPT: A political-economy perspective. / In The economics of artificial intelligence: An agenda. - University of Chicago Press, 2018. – 175-186 p.
17. Can big tech keep getting bigger in the age of AI? The Economist. 5th August 2023
18. Non-proliferation treaties. The Economist. May 27th, 2023
19. Brynjolfsson E. The Turing trap: The promise & peril of human-like artificial intelligence // Daedalus. – 2022. – № 151(2). – p. 272-287.
20. Jacobides M. G., Brusoni S., Candelon F. The evolutionary dynamics of the artificial intelligence ecosystem // Science Science. – 2021. – № 4. – p. 412-435.
21. Chen L., Zaharia M., Zou J. How is ChatGPT's behavior changing over time? //arXiv preprint arXiv:2307.09009. – 2023
22. Candelon F., di Carlo R. C., De Bondt M., Evgeniou T. AI Regulation Is Coming: How to prepare for the inevitable // Harvard Business Review. – 2021. – № 99(5). – p. 102–111.
23. Eisfeldt A. L., Schubert G., Zhang M. B. Generative ai and firm values // National Bureau of Economic Research. – 2023.
24. Лукичёв П. М., Чекмарев О. П., Шматко А. Д. Макроэкономика. - Санкт-Петербург, 2019.
25. Metz C. A.I. Does Not Have Thoughts, No Matter What You Think. New York Times. August 7, 2022. Section BU, p. 6
26. Where are all the robots? The Economist. March 11th 2023
27. Mittelstadt, B.D., Allo, P., Taddeo, M., Wachter, S., Floridi, L.: The ethics of algorithms: mapping the debate. Big Data Soc. 3(2), 2053951716679679 (2016). URL: https://doi.org/10.1177/2053951716679679 (дата обращения 27ю09.2023)
28. Ayling J., Chapman A. Putting AI ethics to work: are the tools fit for purpose? // AI and Ethics. – 2022. – № 3. – p. 405-429.
29. Hendrycks D., Mazeika M. X-risk analysis for ai research //arXiv preprint arXiv:2206.05862. – 2022
30. Hendrycks D., Carlini N., Schulman J., Jacob Steinhardt J. “Unsolved problems in ml safety”. In: arXiv preprint arXiv:2109.13916 (2021)

Страница обновлена: 01.04.2024 в 20:59:39