Долгосрочные риски применения искусственного интеллекта в экономике

Лукичёв П.М.1, Чекмарев О.П.2
1 Балтийский государственный технический университет \"ВОЕНМЕХ\" им. Д.Ф. Устинова
2 Санкт-Петербургский государственный аграрный университет

Статья в журнале

Вопросы инновационной экономики (РИНЦ, ВАК)
опубликовать статью | оформить подписку

Том 13, Номер 4 (Октябрь-декабрь 2023)

Цитировать:
Лукичёв П.М., Чекмарев О.П. Долгосрочные риски применения искусственного интеллекта в экономике // Вопросы инновационной экономики. – 2023. – Том 13. – № 4. – С. 2427-2442. – doi: 10.18334/vinec.13.4.119948.

Эта статья проиндексирована РИНЦ, см. https://elibrary.ru/item.asp?id=63633401

Аннотация:
В статье даётся характеристика рисков, возникающих при применении технологий искусственного интеллекта в долгосрочном периоде. Авторы выявляют два качественно разных уровня рисков, которые несёт применение больших языковых моделей на макроуровне в долгосрочном периоде. Хвостовые риски и экзистенциальные риски от использования моделей искусственного интеллекта способны временно или постоянно (навсегда) ограничить долгосрочный потенциал человечества. Сопоставление рисков применения искусственного интеллекта на микроуровне и на макроуровне обнаруживает качественно разные возможности для их предотвращения или уменьшения. Авторы особо выделяют политэкономические риски использования моделей искусственного интеллекта в будущем, которые вызывают необходимость замены существующей экономической идеологии. Анализ реальности воплощения предыдущих проектов цифровыми монополиями показывает их ориентацию на извлечение прибыли, а не на решение проблем человечества. Поэтому и технологии, создаваемые большими языковыми моделями, больше ориентированы на снижение издержек, чем на улучшение человеческого потенциала. В заключении делается вывод о необходимости использования сценарного подхода к анализу рисков применения искусственного интеллекта в долгосрочном периоде и вводится критерий анализа.

Ключевые слова: искусственный интеллект, риски, государственное регулирование, риски долгосрочного периода, большие языковые модели

JEL-классификация: G32, O32, O33



Введение. Помимо текущих рисков использования технологий искусственного интеллекта (ИИ) важно проанализировать риски ИИ в долгосрочном периоде.

Во многом эти риски за временным периодом в один год связаны с применением больших языковых моделей (БЯМ) (Large language models (LLMs) на макроуровне или с созданием общего искусственного интеллекта (AGI – Artificial Generative Intellect). И то, и другое представляют собой будущие риски, которых ещё нет, но которые со временем будут жизненно важными. Технологии искусственного интеллекта в перспективе могут стать одним из способов координации экономики, наряду с существующими рынком и бюрократией, поскольку каждый способ основан на обработке огромных массивов информации.

Цель исследования – выявить долгосрочные риски использования моделей искусственного интеллекта в будущем и предложить меры по предупреждению отрицательных последствий их применения.

Гипотеза исследования - выявленные риски применения технологий искусственного интеллекта на макроуровне требуют нового (не существующего на данный момент) уровня государственного регулирования.

Применение технологий искусственного интеллекта на макроуровне

Сейчас, - в XXI веке, - всё более важную роль в экономическом развитии играют наука, образование и их воплощение в технологиях. Технологией, определяющей прогресс современной экономики, является искусственный интеллект. В целом, наука служит ключевым фактором экономического роста и социального прогресса. Если науку можно ускорить – например, за счёт повышения эффективности, с которой деньги на исследования превращаются в открытия и в коммерциализированные изобретения, – то же самое можно сделать и с ростом национальной экономики [1].

Прямой зависимости между увеличением использования современных технологий, таких как ИИ, и национальным экономическим развитием, как показывает практика, пока не наблюдается. Одной из причин является нарастание рисков применение моделей искусственного интеллекта для экономики и для общества в целом. Авторы проанализировали риски использования ИИ краткосрочного периода в [2]. В данной статье акцент будет сделан на выявлении рисков применения искусственного интеллекта в долгосрочном периоде на макроуровне. Под последним в экономике традиционно понимается уровень национальной экономики. Если для ХХ века характерным было противопоставление рыночной экономики и плановой экономики, то сейчас народное хозяйство координируют не только рынок и государственное регулирование, но и модели искусственного интеллекта (ИИ). Все они представляют собой обезличенные распределенные системы обработки информации. Общее для ИИ, рынка, бюрократии – обработка поступающей экономической информации. Различия – в том, КАК они это делают.

Применение больших языковых моделей, подобных ChatGPT и его аналогов, создаёт риски, которые на первый взгляд, кажутся незначительными, но при своём применении несут экзистенциальные угрозы для существования всего человечества. На поверхностном уровне практика применения технологий ИИ выявила риски, связанные с их некорректным использованием человеком, - ошибочность данных, используемых для обучения и ввода, проблемы с конфиденциальностью информации, усиление слежки за гражданами, проблемы подотчетности и моральной ответственности за результаты работы технологий ИИ. Кроме того, алгоритмам искусственного интеллекта часто присуща непостижимость «черного ящика», что уже приводило к гибели людей из-за неисправности машин (вспомните медицинские приложения или автономные автомобили) [3].

Пандемии, подобные недавней COVID-19, и учащение техногенных катастроф показывают опасность хвостовых рисков, которые редки, но очень серьёзны [4]. Последние связаны с будущим, ближайшим или отдаленным, когда будут созданы ещё более интеллектуальные и мощные модели ИИ, что может, в конечном итоге, привести к созданию систем искусственного интеллекта, более мощных, чем мы. Разделим два качественно разных уровня опасности, которые несут для будущего человечества эти риски. Хвостовой риск — это маловероятный риск, который может иметь серьёзные последствия. Экзистенциальный риск или X-риск — это риск, который может навсегда ограничить долгосрочный потенциал человечества [5].

Открытым остаётся вопрос: всегда ли возможно перенесение традиционных концепций анализа рисков на модели искусственного интеллекта? Иначе: есть ли специфика LLMs, которая не позволяет полностью положиться на традиционные концепции анализа рисков? Может быть, machine learning? Для объективного ответа на эти вопросы необходимо проанализировать риски применения технологий искусственного интеллекта на макроуровне. Принципиально важно, по нашему мнению, различать риски и возможности снижения негативных последствий от их возникновения на микроуровне и на макроуровне.

На микроуровне отрицательное воздействие рисков может быть реально уменьшено. Например, на уровне отдельного человека риск попасть в автомобильную аварию можно снизить, двигаясь медленнее (уменьшая опасность), двигаясь по менее опасным дорогам (уменьшая воздействие) или пристёгивая ремень безопасности (уменьшая уязвимость). На уровне предприятия химической отрасли риск утечек химических веществ с промышленного предприятия можно снизить, используя менее опасные химические вещества (уменьшая опасность), строя завод вдали от населённых пунктов (уменьшая воздействие) и снабжая рабочих защитной одеждой (уменьшая уязвимость). То есть, учёт рисков в бизнес-практике вполне может уменьшить их негативное влияние.

Что же касается макроуровня, то здесь существует принципиально иное соотношение между рисками, их последствиями и возможностями людей по их уменьшению.

Традиционное уравнение риска можно расширить следующим образом: Риск = Опасность × Воздействие × Уязвимость / Способность справляться с поправкой на способность справляться с авариями или восстанавливаться после них. Здесь «Опасность» означает серьёзность и распространённость опасности, а «×» просто указывает на взаимодействие. Это относится к рискам, связанным с искусственным интеллектом, потому что, если мы потеряем контроль над сильной системой ИИ, наша способность справляться может быть нулевой. Точно так же по определению x-риски постоянны, поэтому данное уравнение показывает, что риск таких событий безгранично велик [6]. Выделенное жирным шрифтом это, по сути, риски на макроуровне.

Опасности координирующей роли искусственного интеллекта на макроуровне

Г. Фаррелл и К. Шализи (Farrell, Shalizi) ввели в 2023 году сравнение последствий применения ИИ с действием рыночной системы и бюрократии по координации экономики. И то, и другое управляют современным обществом, обеспечивая реально функционирующую современную экономику. «Рынки и бюрократия кажутся знакомыми, но на самом деле они представляют собой огромные обезличенные распределенные системы обработки информации, которые превращают бурлящий хаос наших коллективных знаний в полезные упрощения. Рынки и государства могут иметь огромные коллективные преимущества, но они, безусловно, кажутся враждебными людям, потерявшим работу из-за экономических изменений или запутавшимся в дурацких клубках бюрократических решений» [7].

Подобно рынкам и бюрократии, большие языковые модели (БЯЗ – llms) представляют собой также нечто огромное и непостижимое для обычных граждан. Логика принятия решений алгоритмами искусственного интеллекта не всегда понятна нам на микроуровне, а на макроуровне неопределённость будет только возрастать. Тем не менее, поскольку многие функции человеческого мышления, например вычислительные, слабеют и отмирают, то со временем передача функций управления на макроуровне большим языковым моделям будет становиться всё более реальной.

Сегодняшние тренды на рынке труда показывают, что управляемое искусственным интеллектом подталкивание проникает в бизнес и общество с экспоненциальной скоростью. Оно становится всё более привычным, заменяя растущую часть решений, принимаемых раньше исключительно людьми. Например, подталкивание используется для достижения двузначного увеличения удержания клиентов [8], для улучшения безопасности труда [9], для повышения уровня пенсионных накоплений [10], для улучшения гигиенического поведения во время пандемии [11].

Как отмечала A. Гопник, LLMs — это не зарождающийся индивидуальный интеллект, а «культурные технологии», которые реорганизуют и бесшумно передают человеческое знание [12]. В свою очередь, политический антрополог Джеймс Скотт (James Scott) объяснил, что бюрократия — это чудовище информации, пожирающее богатые, неформальные массивы негласно хранимых знаний и выделяющая жидкую жижу абстрактных категорий, которые правители используют, чтобы «видеть» мир [13]. Более полвека назад экономист Мартин Вайцман (Martin Weitzman) предположил, что «плановая экономика может использовать математические объекты, называемые «разделяющими гиперплоскостями», чтобы адаптироваться на лету» [14]. Сейчас же Г. Фаррелл и К. Шализи (Farrell, Shalizi) указывают, что «машинное обучение может находить такие гиперплоскости, делая планирование более осуществимым, чем раньше» [7]. Технологически это означает возрождение применения плановых методов управления народным хозяйством.

Именно в этом смысле большие языковые модели (БЯМ – LLMs) способны дать новый толчок (создать почву для) развитию командной экономики в ущерб рынку, или как минимум обеспечить бюрократам новые инструменты для решения сегодняшних экономических проблем. Происходящая сейчас по инициативе США «деглобализация» мировой экономики объективно усиливает позиции национальной бюрократии, а технологии искусственного интеллекта дают ей невиданные возможности и мощь. По сути, государственное регулирование вместо создания условий для развития рынка заменяет его, перераспределяя по-новому обязанности между ними. Это ущемляет свободу выбора потребителей и возможности бизнеса, а ведь по-прежнему «предприятия хотят максимизировать прибыль, а не предоставлять слабо определенные общественные блага для граждан конкретной страны [15]

Применение технологий ИИ усилит концентрацию бизнеса как в национальных, так и в международных рамках, одновременно увеличивая неравенство между фирмами по активам и доходам, неравенство между странами, регионами, отраслями по уровням экономического развития.

С другой стороны, надежды общества на то, что государственное регулирование применения LLMs будет в интересах развития предпринимательства, свободного рынка и обычных граждан являются, по нашему мнению, иллюзорными. Национальные государства и международное сообщество могут создать определенные рамки использования LLMs, но они будут в реальности в интересах тех цифровых гигантов, которые доминируют сегодня и создадут барьеры к входу для новых «игроков». Само же государственное регулирование искусственного интеллекта, как прозорливо заметил Дэниел Солов (Daniel Solove), рискует создать кафкианский мир с «более бездумным процессом бюрократического безразличия, произвольных ошибок и дегуманизации, мир, в котором люди чувствуют себя бессильными и уязвимыми, без какой-либо значимой формы участия в сборе и использовании их информации» [16, p. 1398].

Политэкономические риски применения искусственного интеллекта в будущем

Прогресс в развитии моделей искусственного интеллекта, особенно явный после запуска в ноябре 2022 года ChatGPT, собравшей за два месяца с момента запуска свыше 100 миллионов пользователей, ставит вопрос о рисках перехода к следующей, качественно новой стадии – к стадии общего искусственного интеллекта, или A.G.I. (artificial general intelligence, or A.G.I.). Да, его пока не существует, но исследователи всё ближе подходят к его созданию. Это приводит нас к необходимости анализа политэкономических рисков применения моделей ИИ в будущем. Какая экономическая идеология придёт на смену существующей?

Лобби ученых, инвесторов и предпринимателей утверждает, что, как только A.G.I. станет безопасным, его применение будет благом для цивилизации. Технологический инвестор из Силиконовой долины Марк Андриссен, в недавнем эссе под характерным названием «Почему искусственный интеллект спасёт мир», — даже заявляет, что ИИ, «Как и любая другая технология, принадлежит людям и контролируется людьми» [17]. Но это не имеет никакого отношения к реальности: технологии контролировались и контролируются крупным бизнесом в целях получения максимума прибыли. Как отмечал Ю. Харари, либеральная политическая система сформировалась в индустриальную эпоху, чтобы управлять миром паровых машин, нефтеперегонных заводов и телевизоров. Ей трудно приспособиться к непрерывным революционным изменениям, связанным с развитием биотехнологий и информационных технологий (ИТ) [18]. Любая идеологическая система, будь то коммунизм, или либерализм опиралась на определённые технологии, на определённые системы машин. Кризис либерализма сейчас связан с тем, что он не готов воспринять искусственный интеллект, биотехнологии, цифровизацию как основу своего развития. Следовательно, делает вывод Харари, нужна или модернизация, или «новый проект». Однако вместо модернизации появляется идеология A.G.I.-изм, соединяющая искусственный интеллект с неолиберализмом. Отличительной чертой данного проекта становится безальтернативность. Как в своё время выразилась Маргарет Тэтчер, нет альтернативы, кроме рынка.

Напомним, что когда человек знает тему, то он сомневается, когда человек не знает, то он имеет твёрдое мнение. Поэтому, по мнению автора книги “To Save Everything, Click Here: The Folly of Technological Solutionism” («Чтобы спасти все, щелкните здесь: глупость технологического решения») и ведущего подкаста «The Santiago Boys» Е. Морозова, AGI-изм призван усилить и воспроизвести основные предубеждения неолиберализма: что частные субъекты превосходят государственных (предвзятость рынка), что адаптация к реальности важнее ее преобразования (предвзятость адаптации) и что эффективность превосходит социальные проблемы (предвзятость эффективности) [19].

Данная проблема усугубляется отсутствием прогресса в объяснимости действий самих моделей искусственного интеллекта. Это не только не позволяет создавать полноценную командную работу людей и ИИ [20], но и для предотвращения «экстремальных сценариев» требует введения жёстких мер государственного регулирования. Как предупреждал ещё в своём эссе Норберт Винер, создатель кибернетики, «чтобы эффективно предотвращать катастрофические последствия, наше понимание наших искусственных машин должно в целом развиваться наравне [шаг за шагом] с характеристиками машины. Из-за самой медлительности наших человеческих действий наш эффективный контроль над нашими машинами может быть сведён к нулю» [21]. К сожалению, логика коммерции часто ведёт в противоположном направлении: например, Microsoft недавно уволила команду по этике искусственного интеллекта. Действительно, некоторые исследователи считают, что истинная проблема «согласования» заключается в том, что ИИ-фирмы, как и заводы, загрязняющие окружающую среду, не соответствуют целям общества. Они получают финансовую выгоду от мощных моделей, но не учитывают затраты мира на их преждевременный выпуск [22].

Риски применения искусственного интеллекта в долгосрочном периоде усиливаются «проблемой согласования». Модель ИИ может целеустремленно преследовать цель, поставленную пользователем, но в процессе сделать что-то вредное, чего не хотелось. Поскольку человеческие ценности не присущи алгоритмам искусственного интеллекта, то побочные эффекты при достижении цели могут многократно превышать полезный результат. Самый известный пример — «максимизатор скрепки», мысленный эксперимент, описанный философом Ником Бостромом (Nick Bostrom) в 2003 году [23]. Искусственному интеллекту поручено изготовить как можно больше скрепок. Такая неограниченная цель заставляет максимизатора принимать любые меры, необходимые для покрытия Земли фабриками по производству скрепок, истребляя человечество по пути.

У всех предыдущих проектов, продвигаемых цифровыми гигантами, «плохая репутация». Все они, обещали в начале качественно новое решение человеческих проблем, а потом превращались в средство извлечения прибыли. И Uber с его низкими тарифами предлагал городам стать их системами общественного транспорта, и Soylent, коктейль-заменитель еды, брал на себя задачу «решить» глобальный голод, и Facebook обещал «решить» проблемы связи на Глобальном Юге, и электромобили Теслы рассматривались как средство борьбы с потеплением планеты. Ни одна из этих компаний не спасла мир. Данный подход справедливо был назван «цифровой неолиберализм» [19]. Такое мировоззрение переосмысливает социальные проблемы в свете коммерческих технологических решений. В результате проблемы, которые принадлежат общественному достоянию, переосмысливаются как предпринимательские возможности на рынке. Поэтому часто предлагаемое увеличение расходов на развитие искусственного интеллекта как средства для прогресса человечества представляется неоправданным. Может быть государствам лучше увеличить инвестиции в человеческий капитал своих граждан? Следовательно, необходим обоснованный выбор: во что общество для своего развития должно вкладывать средства: в улучшение человеческого капитала граждан или в совершенствование технологий искусственного интеллекта?

Сопоставление рисков применения искусственного интеллекта на микроуровне и на макроуровне

Если рассмотреть проблемы рисков от применения технологий искусственного интеллекта не только на уровне народного хозяйства, но и в отраслевом аспекте, например, в финансах, то в долгосрочном периоде вырисовывается схожая картина.

На микроуровне, - то есть на уровне финансовых учреждений и ИИ микроконтроля, когда есть чёткие правила наблюдения за повторяющимися связями и рамки, в которых большая языковая модель знает, что ей разрешено, и должна уметь выводить значимые ассоциации и отношения, встроенные в данные, - применение искусственного интеллекта может экономить издержки и обеспечивать существенные преимущества. Вовлеченные риски можно классифицировать как известные-неизвестные, и они могут быть обоснованно рассмотрены как риски внешнего происхождения. Возникающие проблемы будут относительно незначительны и легко диагностируемы пока экономика развивается по накатанным рельсам, а для их разрешения, как было показано в [2], подходят стандартные модели. В целом, этот подход позволяет развивать инновации, сокращающие издержки, а не инновации второго рода, улучшающие возможности человека [24].

В долгосрочном периоде ситуация принципиально иная. Количественные изменения накапливаются и приводят к качественным изменениям. Как только стабильность закончилась, и начинается кризис, то существовавшие правила нарушаются или принципиально совершенствуются, накопленные данные теряют свою ценность, связи изменяются, а риск начинает носить эндогенный характер. Всё это будет предъявлять качественно более высокие требования к моделям искусственного интеллекта. По мнению Дж. Даниэльссона и др., чтобы эффективно работать в этой среде, искусственный интеллект должен понимать причинно-следственные связи, рассуждать на глобальной, а не на локальной основе, и выявлять угрозы, которые еще не привели к неблагоприятным последствиям. Всё это далеко за пределами текущих возможностей [25]. Кроме того, подчеркнём, что мировая экономическая наука пока не дала удовлетворительного объяснения и не выработала эффективной политики государственного регулирования после мирового финансового кризиса 2008 г. и нынешнего кризиса, вызванного последствиями пандемии. Как отмечал нобелевский лауреат Пол Ромер: «за последние три десятилетия методы и выводы макроэкономики ухудшились до такой степени, что большая часть работы в этой области больше не квалифицируется как научное исследование» [26]. Поэтому стабильность национальной финансовой системы будет под угрозой и возможны крупные убытки банков и страховых компаний. Макроопасности, как показали мировой финансовой кризис и кризис 2021–2023 гг., не имеют удовлетворительных объяснений среди экономистов и в области макроэкономической политики. Правительства всех стран сейчас в своей макроэкономической политике продвигаются «наощупь». Поэтому надеяться, что модель искусственного интеллекта «создаст велосипед» в макроэкономике, по нашему мнению, наивно.

Сейчас существуют три технологических преграды, мешающие ИИ перейти в долгосрочный период:

1) недостаточные вычислительные мощности,

2) дефицит наличия данных для машинного обучения,

3) нехватка инвестиций для дальнейших исследований в области искусственного интеллекта.

Вычислительная мощность, стоимость которой вынуждает разработчиков быть более эффективными, вызвала два новых направления прогресса ИИ. С одной стороны, распространение моделей гораздо меньшего размера, которые обучаются на конкретных данных для выполнения конкретных действий. С другой стороны, расширение создания моделей с открытым исходным кодом, которые также облегчают людям и компаниям погружение в мир генеративного искусственного интеллекта. По подсчетам компании Hugging Face, занимающейся искусственным интеллектом, существует около 1500 версий таких доработанных моделей [27]. Борьба за данные для обучения больших языковых моделей обострилась в связи с практической исчерпаемостью данных в Интернете. Растущие потребности в инвестициях для дальнейшего развития ИИ также породили два новых направления. Во-первых, многие производители больших языковых моделей уже отказываются от ботов в стиле ChatGPT для широкой публики и вместо этого обращаются к обслуживанию крупного бизнеса. Это порождает проблему: «закрытый ИИ» или «открытый ИИ». Примером «закрытого искусственного интеллекта» является сдвиг в работе Open AI. Компания не только лицензировала свои модели для Microsoft, но и создаёт специальные инструменты для таких компаний, как Morgan Stanley и Salesforce. Во-вторых, расширение использования моделей с открытым кодом как llama, созданной компанией Meta, для привлечения разработчиков программного обеспечения и получения сетевых эффектов. Как видно, для решения первой и третьей проблемы перспективным является создание моделей с открытым исходным кодом. По нашему мнению, эти три технологических преграды в ближайшее время будут преодолены и откроется стадия общего искусственного интеллекта.

Самый большой экономический риск: не окажутся ли исследования возможностей использования искусственного интеллекта в экономике «звездными войнами» 21 века. То есть напрасной тратой средств на будущее вместо решения острых сегодняшних проблем? Сферой, где больше всего используется ИИ, является робототехника. Однако реальное применение роботов в мире меньше по стоимости, чем продажа эротических игрушек [28].

Меры по снижению долгосрочных рисков применения технологий искусственного интеллекта

Эти меры следует разделить на две группы: 1) можно принять сейчас для предупреждения (профилактики) последствий долгосрочных рисков применения искусственного интеллекта; 2) предполагаемые долгосрочные риски, которые будут возможны в будущем.

Первые схожи с мерами уменьшения применения рисков ИИ в краткосрочном периоде и были, по сути, проанализированы авторами в [2]. Вторые пока не имеют эффективных решений. Человечество продвигается в предупреждении рисков долгосрочного периода созданием всё большего числа регламентирующих документов, которые, при прочих равных условиях, обеспечивают сейчас преимущество существующим цифровым гигантам.

Особо отметим, что анализ рисков применения технологий искусственного интеллекта на макроуровне в долгосрочном периоде не может быть осуществлён прежними инструментами, а требует создания принципиально новых аналитических орудий. Прежние инструменты концентрировались на поиске конкретного сбоя, выявлении «первопричины», вызывающих последующие негативные последствия. Но сейчас в сфере искусственного интеллекта это не работает, требуя системного подхода для анализа рисков, поскольку исключительно прямое изучение видов отказов имеет хорошо известные «белые пятна». Старые инструменты анализа часто предполагают, что «основная причина» запускает последовательность событий, которые непосредственно и в конечном итоге вызывают сбой, но такие модели фиксируют только линейную причинно-следственную связь. Современные же системы изобилуют нелинейными причинно-следственными связями, включая петли обратной связи, множественные причины, циклическую причинность, само усиливающиеся процессы, эффекты бабочки, микро- и макромасштабную динамику, эмерджентные свойства и так далее. Требование, чтобы исследователи ошибочно и неявно установили прямую связь своей работы с режимом отказа, требует историй с линейной причинностью и исключает нелинейные, отдаленные или косвенные причины [29]. По мере усложнения больших языковых моделей и увеличения их использования в хозяйственной практике проблема несоответствия существующих орудий анализа рисков последствий применения искусственного интеллекта и необходимых инструментов будет только усиливаться.

Заключение и последующие исследования

Перспективы исследования проблемы рисков применения искусственного интеллекта в долгосрочном периоде связаны с проработкой сценарного подхода к развитию взаимодействия работников и больших языковых моделей Критерием является уровень развития человеческого капитала. То есть, необходимость для работника учиться, повышать свою квалификацию, совершенствоваться для работы с ИИ. Этот критерий построен на основе того, насколько прогресс в применении искусственного интеллекта скажется на необходимости совершенствования человеческого капитала и потребности в государственном регулировании. Проблема состоит в том, что с прогрессом ИИ и созданием AGI может исчезнуть мотивация к обучению. Как предупреждают Гамильтон и др., серьёзный риск заключается в том, что мы потеряем образование и оторвёмся от управления будущим [30].

Сегодня просматриваются два «полярных» сценария:

1. запрет (полный или временный) на использование (совершенствование) искусственного интеллекта,

2. «вариант ВАЛЛ-И», когда люди признают преимущество БЯЗ (LLMs) во всех видах труда, как низкоквалифицированного и высококвалифицированного, их возможности создавать изобилие товаров и устраняются от активной работы, как герои мультфильма ВАЛЛ-И.

Промежуточные варианты связаны или с сознательным замедлением использования искусственного интеллекта за счёт усиления государственного регулирования в национальном или в глобальном масштабе, или с трансгуманизмом, когда люди начинают широко изменять себя, используя интерфейс «человек – машина».


Источники:

1. Clancy M., Correa D., Dworkin J., Niehaus P., Watney C., Williams H. Want to speed up scientific progress? First understand how science policy works // Nature. – 2023. – № 7975. – p. 724-726.
2. Лукичёв П.М., Чекмарев О.П. Риски применения искусственного интеллекта в краткосрочном периоде // Вопросы инновационной экономики. – 2023. – № 4. – doi: 10.18334/vinec.13.4.119359.
3. Ayling J., Chapman A. Putting AI ethics to work: are the tools fit for purpose? // AI and Ethics. – 2022. – № 3. – p. 405-429. – doi: 10.1007/s43681-021-00084-x.
4. Taleb N.N. Statistical consequences of fat tails: Real world preasymptotics, epistemology, and applications. , 2020. – 446 p.
5. Ord T. The precipice: Existential risk and the future of humanity. - United Kingdom: Hachette Books, 2020. – 468 p.
6. Hendrycks D., Mazeika M. X-risk analysis for ai research. Arxiv.org. [Электронный ресурс]. URL: https://arxiv.org/pdf/2206.05862.pdf.
7. Farrell H., Shalizi C. Artificial intelligence is a familiar-looking monster, say Henry Farrell and Cosma Shalizi. The Economist. [Электронный ресурс]. URL: https://www.economist.com/by-invitation/2023/06/21/artificial-intelligence-is-a-familiar-looking-monster-say-henry-farrell-and-cosma-shalizi.
8. How can we reduce customer churn?. In irrationallabs.com. [Электронный ресурс]. URL: https://irrationallabs.com/casestudies/google-how-can-we-reduce-customer-churn/ (дата обращения: 30.11.2022).
9. Nioi A., Wendelboe-Nelson C., Cowan S., Cherrie M., Rashid S., Cowie H., Davis A., Ritchie P., Lansdown T., Cherrie J.W. Nudging construction workers towards better sun-safety behaviour: summary of the evidence for practitioners // Policy and Practice in Health and Safety. – 2020. – № 1. – p. 25-33. – doi: 10.1080/14773996.2019.1708614.
10. Benartzi S., Thaler R. Heuristics and biases in retirement savings behavior // Journal of Economic Perspectives. – 2007. – № 3. – p. 81-104. – doi: 10.1257/jep.21.3.81.
11. Weijers R.J., de Koning B.B. Nudging to increase hand hygiene during the COVID-19 pandemic: A field experiment // Canadian Journal of Behavioural Science. – 2021. – № 3. – p. 353. – doi: 10.1037/cbs0000245.
12. Gopnik A. What AI Still Doesn’t Know How to Do. The Wall Street Journal. [Электронный ресурс]. URL: https://www.wsj.com/articles/what-ai-still-doesnt-know-how-to-do-1165789131627.
13. Scott J.C. Seeing like a state: How certain schemes to improve the human condition have failed. - London: Yale University Press, 2020. – 480 p.
14. Weitzman M. Iterative multilevel planning with production targets // Econometrica. – 1970. – № 1. – p. 50-65. – doi: 10.2307/1909240.
15. Farrell H., Newman A. The New Economic Security State // Foreign Affairs. – 2023.
16. Solove D.J. Privacy and power: computer databases and metaphors for information privacy // Stanford Law Review. – 2001. – № 6. – p. 1393-1462. – doi: 10.2139/ssrn.248300.
17. Andreessen M. Why AI Will Save the World. Andreessen Horowitz, Why AI Will Save the World. A16z.com. [Электронный ресурс]. URL: https://a16z.com/ai-will-save-the-world/.
18. Харари Ю.З. 21 урок для XXI века. - М.: Издательство «Синдбад», 2019. – 416 c.
19. Morozov E. The Risk from A.I. Isn’t Just Existential.// New York Times. Section SR. - 2023. - P. 6
20. Лукичёв П.М., Чекмарев О.П. Вызовы экономики искусственного интеллекта традиционному рынку труда // Вопросы инновационной экономики. – 2023. – № 2. – c. 785-802. – doi: 10.18334/vinec.13.2.118137.
21. Wiener N. Some Moral and Technical Consequences of Automation: As machines learn they may develop unforeseen strategies at rates that baffle their programmer // Science. – 1960. – № 3410. – p. 1355-1358.
22. How generative models could go wrong. The Economis. [Электронный ресурс]. URL: https://www.economist.com/science-and-technology/2023/04/19/how-generative-models-could-go-wrong.
23. Bostrom N. Ethical issues in advanced artificial intelligence. / In book: Science fiction and philosophy: from time travel to superintelligence., 2003. – 277-284 p.
24. Trajtenberg M. The economics of artificial intelligence. / In book: The economics of artificial intelligence. - Chicago: University of Chicago Press, 2018. – 175-186 p.
25. Danielsson J., Macrae R., Uthemann A. Artificial intelligence and systemic risk // Journal of Banking & Finance. – 2022. – p. 106290.
26. Romer P. The trouble with macroeconomics. The American Economist, Retrieved. [Электронный ресурс]. URL: http://ccl.yale.edu/sites/default/files/files/The%20Trouble%20with%20Macroeconomics.pdf (дата обращения: 24.01.2017).
27. Beyond the hype. The Economist. - 2023
28. Where are all the robots? // The Economist. - 2023
29. Leveson N., Dulac N., Marais K., Carroll J. Moving beyond normal accidents and high reliability organizations: A systems approach to safety in complex systems // Organization Studies. – 2009. – № 2-3. – p. 227-249.
30. Hamilton A., Wiliam D., Hattie J. The Future of AI in Education: 13 things we can do to minimize the damage. Osf.io. [Электронный ресурс]. URL: https://osf.io/preprints/edarxiv/372vr/.

Страница обновлена: 05.08.2024 в 19:44:34