Принятие экономических решений: человек с «эффектом Поланьи» или агенты искусственного интеллекта

Лукичёв П. М.

Статья в журнале

Вопросы инновационной экономики (РИНЦ, ВАК)
опубликовать статью | оформить подписку

Том 15, Номер 1 (Январь-март 2025)

Цитировать эту статью:



Введение

Технологические компании постоянно сообщают о новых достижениях в создании больших языковых моделей (БЯМ). В июне 2024 стартап Anthropic, занимающийся искусственным интеллектом, выпустил свою новейшую модель Claude 3.5 Sonnet, которая превосходит своих предшественников, в том числе, в кодировании. 12 сентября Openai, производитель ChatGPT, выпустил версию своей последней модели o1, заявив, что она «превосходно справляется с точной генерацией и отладкой сложного кода» [15]. Всё это приближает тот день, когда произойдёт, по их мнению, качественный прорыв в прогрессе искусственного интеллекта и будет создан AGI (Artificial General Intelligence – Общий искусственный интеллект), который превзойдёт по своим параметрам возможности любого человека. Этот качественный прорыв способен принципиально изменить соотношение сил в принятии экономических решений. Однако за последние два года уже возник целый ряд инноваций в технологиях искусственного интеллекта, подрывающих монополию работников-людей по управлению экономикой. Важнейшими среди них являются: обладание «неявным знанием» большими языковыми моделями и появление Агентов искусственного интеллекта. Цель статьи: проанализировать возможности сохранения конкурентного преимущества работников-людей над моделями искусственного интеллекта в принятии экономических решений и оценить сценарии их дальнейшего взаимодействия.

Совершенствование больших языковых моделей

для создания Общего искусственного интеллекта

Прежде всего обратимся к очень плодотворной статье российского исследователя С. Карелова, который объективно оценил перспективы создания общего искусственного интеллекта [2]. С. Карелов показывает, что в AGI (Artificial General Intelligence – Общий искусственный интеллект) два термина из трёх не определены точно, поэтому наивно говорить, что Большие языковые модели (БЯМ) превзойдут человека, если мы не можем (следующая его мысль) определить чётко и ясно критерии этого. Тест Тьюринга, который, собственно говоря, является не тестом, а – мысленным экспериментом, по мнению С. Карелова, на самом деле, доказывает не определение того, это машина, а это человек, а представляет собой «гендерный тест»: мужчина или женщина. Далее он справедливо указывает, что все тесты, включая современные производные от Теста Тьюринга, большие языковые модели «проходят», но это не из-за их интеллекта, а из-за «подгонки», - явной или неявной. - под результат – действие «ловушки Гудхарта». Напомним, что закон Гудхарта гласит: «Любая наблюдаемая статистическая закономерность будет иметь тенденцию разрушаться, как только на нее оказывается давление в целях контроля» [17]. Уязвимость позиции С. Карелова: он рассматривает только рационального человека, как это, например делает экономика mainstream, но нормальный (реальный) человек обладает при принятии экономических решений и другими видами рациональности, включая ограниченную рациональность, выдвинутую одним из четырех создателей искусственного интеллекта и нобелевским лауреатом по экономике Гербертом Саймоном [29]. То есть модели искусственного интеллекта даже в идеале будут превосходить только одну часть человека, а именно - рациональную.

Взаимоотношения «человек – машина», которые устоялись за последние столетия, сегодня принципиально видоизменяются, как со стороны работника, так и со стороны машины. Прежняя схема, основывалась на людях, которые, используя машины, могли производить продукции больше и лучше, чем они делали раньше вручную. Это требовало исполнения организующей работы со стороны менеджеров, которые осуществляли функцию управления, надзора и контроля над производственными процессами. С точки зрения менеджмента бизнес-процессов сложившаяся схема организации выпуска товаров и услуг порождала классическую экономическую концепцию «Принципал – Агент». В ней работники, непосредственно управляющие машинами, играли роль агентов, а менеджеры, выполняли по отношению к ним роль принципалов. Часть данной концепции отражала взаимоотношения между владельцами фирм, как принципалами, и менеджерами, как агентами. На всех уровнях действия ключевой особенностью концепции является то, что принципал не всегда может наблюдать за действиями агентов, а в некоторых случаях, даже осуществляя мониторинг, не может точно сказать, насколько действия агента являются наилучшими с точки зрения принципала [3]. Сегодня совершенствование технологий искусственного интеллекта вносит новое качество в эти взаимоотношения. Эту особенность первыми выделили А. Коринек и Д. Стиглиц (Korinek, Stiglitz, 2018), когда отметили, что определяющим признаком ИИ является автоматизация последней области, в которой̆ рабочие-люди имели сравнительное преимущество перед машинами, – нашего мышления и обучения [20].

Происходящее совершенствование технологий искусственного интеллекта всё более явно меняет соотношение в принятии экономических решений человеком и большими языковыми моделями. Мы, как показывает поведенческая экономика, не являемся рациональными в принятии всех решений в области хозяйственной жизни. Как отмечала Й. Пуашундер ( Puaschunder J. M.), множество доказательств показало, что люди игнорируют рациональный выбор, который предсказывают стандартные неоклассические аксиомы максимизации прибыли, а скорее используют эвристику в своем повседневном принятии решений [27]. Ограниченная рациональность, иррациональность, неполная рациональность и другие виды рациональности, используемые нами в реальных экономических решениях, чаще обращаются к системе 1, ответственной за быстрые интуитивные решения в обход размышлений, по Д. Канеману [1], чем к системе 2, с помощью которой принимаются обдуманные решения. Как показывает опыт, данные решения не всегда являются оптимальными.

Осознавая это, мы надеемся на использование возможностей больших языковых моделей, которые могут устранить недостатки обработки информации и принятия решений человеком. Как отмечали Э. Бриньолфссон и Э. Нг (Brynjolfsson E., Ng A.), возможности принятия решений технологиями сегодня уже сильно отличаются от тех, что были 40 лет назад. Более того, они находятся на скоростной полосе ко всё более крупным и мощным системам ИИ, которые могут принимать решения способами, которые никогда не могла бы сделать ни одна централизованная машина [11].

А. Сен, нобелевский лауреат по экономике, ещё в 1986 году отмечал, что все рациональные данные в мире становятся бесполезными из-за иррациональности человеческого поведения, указывая на «врожденную трудность в прогнозировании результатов взаимодействия миллионов людей с различными ценностями, целями, мотивациями, ожиданиями, способностями, правами, средствами и обстоятельствами, взаимодействующими друг с другом в самых разных институциональных условиях» [28].

Взаимоотношения «человек – машина» в перспективе будут определяться тем как именно работники-люди организуют взаимодействие с моделями искусственного интеллекта. Итан Моллик (Mollick E.) говорит, что возможны два типа взаимодействия человека с ИИ:

1) кентавр – чёткое разделение задач на человеческие и ИИ (так же как тело кентавра явно разделено на человеческую и лошадиную части);

2) киборг – привлечение ИИ к решению всех текущих задач, совмещая потенциал двух интеллектов и позволяя им гибко взаимодействовать. [11 23]

И то, и другое направления имеют свои преимущества и свои ограничения. По нашему мнению, второй тип взаимодействия более плодотворный, позволяющий в идеале использовать не только человеческий интеллект и искусственный интеллект, но и достичь синергетического эффекта от их совмещения. Первое направление, - кентавр, - является более безопасным, поскольку исключает негативные последствия взаимодействия ИИ и человека: избыточное доверие работников к решениям искусственного интеллекта, «гибридное отступление», и превращение людей в бездумных потребителей, как было показано в фильме ВАЛЛ-И.

Эффект Поланьи: дискуссия и конкурентное преимущество в принятии экономических решений

Важную роль в совершенствовании искусственного интеллекта сыграла дискуссия 2010-х годов о «неявном знании» Поланьи. Является ли эфффект Поланьи преимуществом мышления человека над моделями ИИ? Проанализируем аргументы «за» и «против».

Данный эффект был открыт известным химиком и философом М. Поланьи (Polanyi M.) в рамках его теории познания. Он сформулировал положение о неявном (молчаливом) знании [24], [25]: каждый человек «может знать больше, чем он может сказать». Проявляется оно в том, как умелый игрок может выиграть партию в биллиард, не зная законов физики; в узнавании взрослого человека на детской фотографии, в умении ребёнка ходить. Всё это и многое другое приобретается не на основе явно и чётко сформулированных теоретических знаний, а на основе личного опыта и наблюдений с течением времени. Сам Поланьи «присваивает «молчаливый личный коэффициент» [24, p. 25] всем знаниям, начиная от самых обыденных и телесных (например, езда на велосипеде, плавание) до самых специализированных и абстрактных (например, химия, математика). Эти знания не являются одинаковыми, будучи интуитивными и невербальными, а отличаются от человека к человеку. Он обусловливает «установление контакта с реальностью» [24, p. 27] целью поиска знаний; и рассматривает «интеллектуальные страсти» [24. p. 37], особенно «стремление к истине» [24, p. 62], как движущую силу всех исследований.

Эффект Поланьи приобрёл особое значение в связи с появлением компьютеров, а затем – искусственного интеллекта. Ученые и практики стали постоянно сравнивать работу человека и работу компьютеров (искусственного интеллекта), мышление работников-людей и мышление моделей ИИ. … Исследователей особенно интересует: является ли эффект Поланьи, которым обладает человек, конкурентным преимуществом в сфере экономики по сравнению с компьютером или большой языковой моделью? В 2010-е годы прошла дискуссия, выявившая два противоположных подхода к данной проблеме. Сторонники положительного ответа на этот вопрос приводят следующие аргументы. М. Варди (Vardi M. Y.) отмечает, что именно эффект Поланьи вызвал растущую профессиональную поляризацию на рынке труда, которая привела к сокращению среднего класса в промышленно развитых странах, поскольку многие профессии со средним доходом в сфере продаж, офисной и административной работы, а также повторяющейся производственной работы являются трудоёмкими. Более того, последующий рост неравенства доходов и неравенства в благосостоянии в последнее время стал серьёзной социально-экономической проблемой в развитых странах [33]. Д. Аутор (David Autor) указывает на интенсивное выполнение нестандартных задач, которые выделяются в парадоксе Поланьи, как на серьёзное ограничение того, какую работу могли выполнять традиционные компьютеры, что не позволяет современным алгоритмам заменить человеческий труд в ряде квалифицированных рабочих мест [6]. Мастерство при выполнении нестандартных задач достигается не за счёт изучения правил, а путём наблюдений за практикой и опыта. Не в игре с чёткими правилами и определённым набором ходов, а в реальной экономике с её неопределённостью и риском существует много задач, которые работники-люди легко выполняют без формального понимания того, как они это делают.

Дж. Прассл (Prassl J.) делает акцент на том, что постоянно меняющийся, неструктурированный характер некоторых видов деятельности в настоящее время представляет собой устрашающую проблему для автоматизации. Несмотря на годы времени и миллиарды инвестиций, потраченных на разработку беспилотных автомобилей и роботов-уборщиков, эти системы машинного обучения продолжают бороться со своей низкой адаптивностью и интерпретируемостью, от неспособности беспилотных автомобилей сделать неожиданный объезд до роботов-уборщиков, уязвимых перед неконтролируемыми домашними животными или детьми [26]. Действительно до сих пор ни одна модель искусственного интеллекта не смогла обеспечить стопроцентной безопасности для беспилотных автомобилей или стопроцентно точного диагноза в медицине.

На наш взгляд, тут возникает общий вопрос: кто к кому должен приспосабливаться, - люди к роботам с ИИ, или технологии искусственного интеллекта к людям. Возможно, и первое: железные дороги имеют идеальное покрытие, позволяющее ездить поездам. В современном производстве примером служит автомобилестроительный конвейер. Создание искусственной окружающей среды представляет, по нашему мнению, путь, пусть и дорогостоящий, для преодоления эффекта Поланьи. Наверно, однозначного ответа во всех случаях не существует. Следует учесть, что алгоритмы искусственного интеллекта целиком основаны на полной рациональности. Другие виды рациональности, которыми обладает нормальный (средний) человек при принятии экономических решений, не рассматриваются. Если эффект Поланьи действительно представляет конкурентное преимущество работника-человека над ИИ, то роль поведенческой экономики возрастает.

Сторонники негативного ответа на вопрос о конкурентном преимуществе человека над алгоритмами искусственного интеллекта делают акцент на результатах, а не на процессе принятия решений. Так Н. Карр (Carr) указывает, что предположение о том, что компьютеры должны иметь возможность воспроизводить неявные знания, которые люди будут применять для выполнения сложных задач, само по себе вызывает сомнение. При выполнении задач системам и машинам вовсе не обязательно следовать правилам, которым следуют люди. Целью использования машины для выполнения задачи является воспроизведение наших результатов для практических целей, а не наших средств [12]. Д. Каплан (Jerry Kaplan), углубляет эту аргументацию. По его мнению, [19], существуют четыре ресурса и способности, необходимые для выполнения любой конкретной задачи: осведомленность, энергия, рассуждение и средства. Биологическая система человека (комплекс мозг-тело) естественным образом объединяет все эти четыре свойства, в то время как в электронной сфере машины могут получить эти способности благодаря разработкам в области робототехники, машинного обучения и систем управления восприятием. Например, данные, предоставляемые широкой сетью датчиков, позволяют ИИ воспринимать различные аспекты окружающей среды и мгновенно реагировать в хаотичных и сложных ситуациях реального мира (т. е. осведомленность); команды и сигналы для исполнительных устройств могут быть централизованы и управляться в кластерах серверов или в «облаке» (рассуждение). [19]

Наиболее последовательную позицию, опередившую появление ChatGPT, занял Д. Сасскинд (Susskind D.). Он отмечал, что последние достижения в области машинного обучения преодолели парадокс Поланьи. Вместо того, чтобы полагаться на алгоритмы программистов, обучающих их человеческим знаниям, компьютерные системы теперь могут самостоятельно изучать неявные правила из контекста, большого количества данных и прикладной статистики. Поскольку машины могут выводить неявные знания, которые люди извлекают из примеров, без помощи человека, они больше не ограничены теми правилами, которые молчаливо применяются, но не понимаются людьми явно. [30].

После внедрения ChatGPT большинство экономистов, включая Д. Аутора [7], изменили своё отношение к эффекту Поланьи. Во многом это обусловлено явно проявившимися отличиями искусственного интеллекта от компьютера. Развитие ИИ происходит зачастую непредсказуемо для своих создателей и результаты его работы часто неожиданны по отношению к тем компонентам, на которых он обучался. Этот эффект называется «эмерджентность», то есть возникновение новых свойств, которые не были заложены в систему при проектировании.

Алгоритмы машинного обучения (МО) работают иначе, чем традиционные компьютерные программы: вместо того, чтобы требовать явных инструкций для функционирования, эти системы выводят инструкции из примеров. Например, имея обучающий набор изображений, системы МО могут научиться распознавать конкретных людей, даже если невозможно полностью объяснить, какие физические особенности характеризуют личность данного человека. Эта способность подчёркивает ключевой, отличительный аспект систем машинного обучения: они могут учиться выполнять задачи, даже когда нет никаких инструкций, включая задачи, требующие неявных знаний, которые ранее можно было получить только через жизненный опыт [25]; [6]; [9].

Э. Бриньолфссон, Д. Ли, Л.Р. Рэймонд (Brynjolfsson E., Li D., Raymond L. R.) выделяют ещё одно замечательное свойство, которое присуще машинному обучению. Системы МО часто обучаются на данных от работников-людей, которые, естественно, различаются по своим способностям. Видя множество примеров задач — создание торговых предложений, вождение грузовика или диагностика пациента, и это лишь некоторые из них — выполненных хорошо и плохо, эти модели могут неявно узнать (выделено автором), какие конкретные модели поведения и характеристики отличают высокопроизводительных работников от их менее эффективных коллег [10].

Д. Аутор в 2024 году [7] также отмечал качественно иную по сравнению с компьютерами роль в экономике современных моделей искусственного интеллекта. ИИ не заслуживает доверия в отношении фактов и цифр — он не уважает правила. Однако искусственный интеллект удивительно эффективен в приобретении неявных знаний. Вместо того чтобы полагаться на жестко запрограммированные процедуры, ИИ учится на примерах, приобретает мастерство без явных инструкций и приобретает способности, которым он явно не был спроектирован для обладания.

Таким образом можно сделать вывод: сегодняшние модели искусственного интеллекта могут обладать неявным знанием, которое раньше было монополией людей-работников. Потенциальными последствиями этого тренда являются радикальное изменение ценности принятия решений работниками-людьми и деформация существующего рынка труда, поскольку ИИ изменит значимость и природу человеческой экспертизы. Обеспечивая поддержку принятия решений в форме руководства и ограждений в реальном времени, искусственный интеллект может позволить большему числу работников, обладающих дополнительными знаниями, выполнять некоторые из задач принятия решений с более высокими ставками, которые в настоящее время приписываются элитным экспертам, таким как врачи, юристы, программисты и педагоги. [7]. Проще говоря, принятие решений, которое раньше было возможно только узким специалистам, станет доступно юзерам (обычным пользователям). Аналогией может служить эволюция использования компьютеров. Из положительных последствий можно выделить: снижение стоимости таких ключевых услуг, как юридическая экспертиза, здравоохранение, образование; улучшение качества рабочих мест для работников без высшего образования и опыта работы; смягчение неравенства в оплате труда. Негативными последствиями являются: обесценение человеческого образования и профессионального опыта, отсутствие мотивации к работе для наиболее высококвалифицированных специалистов, блокировка развития экономики в целом.

Ещё одним фактором, оказывающим всё большее влияние на соотношение сил в принятии экономических решений между работниками-людьми и моделями ИИ стало появление в 2023 году Агентов искусственного интеллекта. В расширительной трактовке агент — это система, способная воспринимать окружающую среду и принимать решения на основе этих восприятий для достижения конкретных целей [34]. Он представляет собой преобразование чат-бота в новый тип автономной системы, которая может использовать программные приложения, веб-сайты и другие онлайн-инструменты. Эта технология также может генерировать компьютерный код, который подключается к другим программным приложениям и веб-сайтам.

Уже сейчас Агенты ИИ часто взаимодействуют с инструментами или услугами через выделенные API, которые представляют собой интерфейсы и протоколы, специально структурированные для агентов, а не для пользователей-людей. То есть агенты взаимодействуют друг с другом без вмешательства работника-человека. [14]. Оснащенный подключаемым модулем, называемым интерпретатором кода, ChatGPT может не только писать код, но и запускать его. Это позволило технологии мгновенно выполнять задачи, которые она не могла выполнять в прошлом, включая редактирование электронных таблиц и преобразование неподвижных изображений в видео. Google, Microsoft и другие компании изучают похожие технологии. Вице-президент Microsoft Эшли Ллоренс (Ashley Llorens) отмечает, что в проектах, которые мы представляем, ИИ, по сути, работают с другими ИИ от вашего имени. [22] Фактически это означает, что от традиционной схемы Пр. ® А, где принципалом (Пр.) выступает собственник (менеджер) на которого трудится работник – агент (А) по мере развития большие языковые модели перешли к схеме Пр. ® ИИ, где на собственника работает искусственный интеллект (ИИ). Теперь же, благодаря появлению Агентов искусственного интеллекта возникает схема: А (ИИ) ® А (ИИ), в которой агенты искусственного интеллекта (А (ИИ)) взаимодействуют от имени владельца с другими агентами искусственного интеллекта. Закономерно возникает вопрос, а зачем нужен в этой бизнес-схеме работник-человек?

Пока это работает не очень хорошо, но ближайший (2–3 года) идеал – обеспечить каждого цифровым помощником, который потенциально может делать практически всё в Интернете. Это способно облегчить жизнь — но также может заменить бесчисленное множество рабочих мест среди «белых воротничков». Для более отдалённого периода независимые проекты, такие как AutoGPT, пытаются продвинуться на несколько шагов дальше. Идея заключается в том, чтобы дать системе цели, например «создать компанию» или «заработать немного денег». Затем она будет искать способы достижения этой цели, задавая себе вопросы и подключаясь к другим интернет-сервисам [22].

Риски первенства технологий ИИ в принятии решений над человеком

Расширение применения моделей искусственного интеллекта для принятия решения в экономике порождает, как минимум, три трудно разрешимые проблемы в краткосрочном периоде: централизация принятий решений большими языковыми моделями, справедливость, этические проблемы.

Увеличение мощностей систем искусственного интеллекта, произошедшее за последние несколько лет, усилило возможности централизованного принятия решений. Последствия этого для экономики весьма противоречивы. С одной стороны, повышение потенциала больших языковых моделей улучшит и качество, и эффективность принимаемых решений. С другой стороны, это может привести к концентрации власти и богатства в невиданных ранее масштабах. Объективными причинами данной тенденции является: а) перемещения знаний и информации от человеческого мозга к машинам, б) перемещения вычислительной мощности, необходимой для принятия решений, от человеческого мозга к машинам [11]. Кроме того, существует чисто экономическое основание для централизации принятия решений: дороговизна развития, как барьер к входу. Данные показывают, что в версии ChatGPT конца 2023 года содержалось 175 млрд кодов [23], описывающих взаимные связи слов и частей слов. Важно, что эти коды не были заданы в модели искусственного интеллекта изначально, он сгенерировал их сам в процессе работы. Необходимость масштабного обучения делает производство ИИ очень дорогим и доступным ограниченному числу компаний.

На наш взгляд, если данные тенденции будут продолжать расширяться неконтролируемым образом, то последствия могут стать необратимыми. Централизация принятия экономических решений и централизация власти, идущие рука об руку, очень опасны для развития общества. Для предотвращения этого необходимо действовать одновременно в двух направлениях: 1) усиливать государственное регулирование применения моделей ИИ, 2) повышать инвестиции в улучшение человеческого капитала.

Существующие сегодня модели искусственного интеллекта вызывают ряд этических соображений, особенно когда речь идёт о таких вопросах, как конфиденциальность, права интеллектуальной собственности и потенциальная предвзятость в генерируемом контенте. Чем больше применяются системы машинного обучения, тем сильнее становится генеративный ИИ, тем важнее становится внедрение этических рамок. [8]. Особенно актуальным является необходимость в справедливом искусственном интеллекте в эпоху систем общего назначения, таких как ChatGPT, Gemini и других больших языковых моделей (БЯМ). Однако растущая сложность взаимодействия человека и ИИ и его социальные последствия подняли вопросы о том, как можно применять стандарты справедливости. Технические рамки, используемые сейчас исследователями машинного обучения для оценки справедливости, такие как групповая справедливость и справедливые представления, далеки от идеала, и их применение к большим языковым моделям сталкивается с присущими им ограничениями. Каждая рамка либо логически не распространяется на БЯМ, либо представляет собой понятие справедливости, которое является неразрешимым для больших языковых моделей, в первую очередь из-за множества затронутых групп населения, чувствительных атрибутов и вариантов использования. [5].

Исследователи отмечают также некоторые ожидаемые виды ущерба от всё более агентных систем, а именно то, что они могут вызывать системный и отсроченный ущерб, лишать человека возможности принимать решения, усугублять чрезмерную концентрацию власти и быть источником дополнительных неизвестных угроз через возникающие возможности». [13]

Все опасения по поводу прогресса больших языковых моделей и возможностей государств по их регулированию также сохраняются. Мы можем сколько угодно уговаривать себя, но «Х-риски» остаются. Как отмечали создатели поведенческой экономики А. Тверски и Д. Канеман [31], сложная система, будь то ядерный реактор или человеческое тело, не сможет функционировать, если хотя бы один из критически важных компонентов откажет. Даже если вероятность отказа каждого из компонентов мала, шансы, что произойдёт катастрофа могут быть значительны, если количество компонентов велико. Именно этот случай мы имеем с большими языковыми моделями сейчас, поэтому государственное регулирование искусственного интеллекта, нацеленное только на решение текущих задач, - фейки, приватность и т. п., - опасно! Оно должно быть направлено и на предотвращение экзистенциональных рисков.

Сценарии взаимоотношений моделей искусственного интеллекта и работников-людей в принятии экономических решений

Принятие решений играет ключевую роль в прогрессе экономики, как на микроуровне, так и на макроуровне. Та национальная экономика (или компания), которая принимает более эффективные решения, побеждает в конкурентной борьбе. Растущее участие моделей искусственного интеллекта в принятии экономических решений вызывает два сценария развития событий: пессимистичный и оптимистичный.

Пессимистичный сценарий основан на углублении двух трендов. Первый – это передача всё большего числа экономических решений от работника-человека к алгоритмам искусственного интеллекта. Она сопровождается «гибридным отступлением» [4]. Люди обладают избыточным доверием по отношению к предложениям, рекомендациям больших языковых моделей. Кроме того, ситуация, когда решение модели искусственного интеллекта имеет первенство над решениями людей приводит к деформации поведения специалистов: возрастает процент точных решения, но одновременно, увеличивается число решений, выгодных «здесь и сейчас» (например, увеличение прибыли фирмы в первом квартале) без учёта долгосрочных последствий для конкурентоспособности компании (прибыль была получена за счёт сокращения инвестиций или затрат на охрану окружающей среды).

Второй тренд - передача всё большего числа решений в экономике от элитных специалистов (врачей, юристов) к более широкому кругу работников. Последствия будут крайне противоречивы. Из негативных отметим снижение ценности труда высококвалифицированных специалистов и отсутствие мотивации у них к развитию. Усилит действие второго тренда возникновение агентов искусственного интеллекта, которые смогут заменить в среднесрочной перспективе большое число офисных сотрудников, а в долгосрочной перспективе – практически всех работников.

Возникнет ли «прорыв» в обучении больших языковых моделей за счёт создания агентов искусственного интеллекта? Остановят ли агентные отношения прогресс человеческой науки? Созданная в августе 2024 года японским стартапом Sakana AI «первая комплексная система для полностью автоматических научных открытий, позволяющая большим языковым моделям проводить исследования самостоятельно» сделала первый практический шаг в этом направлении [21]. Её AI Scientist может во много раз увеличить число публикуемых «научных» статей. Однако они не будут обладать ни новизной, ни более высоким качеством по сравнению со средним сегодняшним уровнем. Аналогия автора: нам нравится писатель или певец. Мы хотим прочитать ещё один роман (детектив) любимого писателя, послушать ещё одну песню понравившегося певца (певицы), посмотреть ещё одну серию полюбившегося сериала. Большие языковые модели способны будут сделать это, создав вариации романа, «перепев» песню. Но они не смогут сделать ничего нового. Поэтому ключевым моментом здесь будет не постоянные имитации одного и того же уровня развития, а создания инноваций, которые дают толчок росту производительности труда и прогрессу в развитии общества.

Оптимистичный сценарий основан на поддержании выгод от сотрудничества работников-людей и ИИ в принятии экономических решений, в лостижении синергетического эффекта от их взаимодействия. Плюсом второго тренда является рост производительности труда «новичков» и малоквалифицированных работников до уровня высококвалифицированных и опытных работников, что повышает общий рост производительности предприятия (народного хозяйства). Произойдёт, как это было ранее с компьютерами и Интернетом, распространение применения моделей искусственного интеллекта от узкого круга специалистов к большому числу компаний и работников, что обеспечит значительный рост производительности труда во всех отраслях экономики. Технологии искусственного интеллекта станут действительно общей технологией [32]. Кроме того, сохраняется возможность лучшего использования ИИ лицами, принимающими решения в компаниях. Для этого, как показывают исследования, надо ориентироваться на объяснения на основе примеров и на ограничения объяснений на основе функций, что уменьшает чрезмерную уверенность и помогает достичь взаимодополняющей производительности человека и искусственного интеллекта, превосходя производительность работника или ИИ по отдельности. Одновременно следует указать на потребности пользователей в поддержке принятия решений системами искусственного интеллекта, которые лучше учитывают человеческую интуицию принятия решений, более совместимы с человеческой интуицией и поддерживают более критическое понимание ИИ. [16, р. 3, 25]

Отметим также, что обладание неявным знанием у больших языковых моделей и расширение применения агентов искусственного интеллекта являются пока только потенциальными возможностями. Осуществимость технологических решений во многом ограничена их экономическими выгодами. Понадобится определённый «переходный период» к новой реальности, который потребует значительных усилий и инвестиций со стороны и компаний, и государств. В этот период от работников-людей будет необходимо ещё большее, чем раньше использование неявного знания. Не случайно наследие М. Поланьи продолжает стимулировать интеллектуальную мысль: Общество Поланьи и Либеральная философская ассоциация Майкла Поланьи (Polanyi Society and Michael Polanyi Liberal Philosophical Association) издают научные журналы, посвященные развитию его идей. [18].

Возможности наступления (преобладания) оптимистичного сценария или пессимистичного сценария будут во многом зависеть от того, какой объём инвестиций будет вкладываться в развитие человеческого капитала. Вызовы, которые несёт расширение применения технологий искусственного интеллекта в принятии экономических решений, означают необходимость совершенствования знаний, умений и навыков работников-людей. Чем выше будет их человеческий капитал, адаптированный к использованию ИИ в бизнес-процессах, тем более вероятен оптимистичный сценарий. Если же продолжится неконтролируемый процесс передачи экономических решений от человека к моделям искусственного интеллекта, то и значение работающих специалистов будет принижаться вплоть до полного исключения людей из экономики в долгосрочном периоде. Появление Общего искусственного интеллекта будет важнейшим катализатором воплощения пессимистичного сценария.

Выводы и дальнейшие исследования

Кооперация в бизнес-процессах между работниками-людьми и большими языковыми моделями будет только нарастать в ближайшие годы. Страны, отрасли, предприятия, не сумевшие эффективно применить ИИ в экономике будут менее конкурентоспособными и не получат все преимущества роста производительности, углубляя существующее неравенство. Наверно, соревнование (конкуренция) между возможностями человеческого мышления и потенциалом моделей искусственного интеллекта будет продолжено. Чтобы оно было честным, - на равных условиях, - должно быть увеличение инвестиций у общества как в технологическую составляющую (в совершенствование моделей ИИ), так и в улучшение человеческого капитала. Цель минимум в совершенствовании человеческого капитала – соответствовать (понимать) потенциал и ограничения общего искусственного интеллекта). Цель максимум – достичь такого уровня совместной работы работников-людей и больших языковых моделей, которая обеспечивает максимальное использование человеческого потенциала и потенциала искусственного интеллекта.


Страница обновлена: 15.01.2025 в 12:41:31