Принятие решений в современной экономике: искусственный интеллект vs поведенческая экономика
Лукичев П.М.1
1 Балтийский государственный технический университет \"ВОЕНМЕХ\" им. Д.Ф. Устинова
Скачать PDF | Загрузок: 18
Статья в журнале
Вопросы инновационной экономики (РИНЦ, ВАК)
опубликовать статью | оформить подписку
Том 14, Номер 3 (Июль-сентябрь 2024)
Эта статья проиндексирована РИНЦ, см. https://elibrary.ru/item.asp?id=69925467
Аннотация:
В статье исследуются проблемы принятия экономических решений алгоритмами искусственного интеллекта и возможности совместной работы над принятием итоговых решений человеком и искусственным интеллектом. Анализируются особенности принятия решений искусственным интеллектом и вводится критерий их успешности. В статье выявлены два класса причин, которые ответственны за недостаток доверия работников к решениям алгоритмов искусственного интеллекта. Автор делает вывод, что сейчас технологические решения, имитирующие человеческий путь познания, оказываются более эффективными, чем традиционные. Эффективность решений, предлагаемых в экономике искусственным интеллектом, по-прежнему определяется работниками, вводящими данные для обучения больших языковых моделей. Автор вводит понятие «цифровой маркетинг», как маркетинг XXIвека. В прогрессе «цифрового маркетинга» выделяются два этапа., различающихся между собой по степени использования положений Поведенческой экономики. Делается вывод, что современная экономика переживает период «гибридного отступления», когда всё большая роль в принятии решений передаётся алгоритмам искусственного интеллекта
Ключевые слова: искусственный интеллект, поведенческая экономика, потребительский выбор, доверие, цифровой маркетинг
JEL-классификация: D81, E71, M31, O31, O32
Введение
Усиление роли искусственного интеллекта (ИИ) в XXI веке связано с несколькими причинами, накладывающими своё действие друг на друга и создающими синергетический эффект. Искусственный интеллект возник почти 70 лет назад, но именно сейчас происходит его качественный «прорыв» благодаря прогрессу нескольких технологий. К числу последних можно отнести: огромный рост вычислительной мощности компьютеров, развитие «глубокого обучения»; быстрое увеличение объёма общедоступных данных, разработка усовершенствованных вычислительных технологий, включая работу с текстом и с изображениями, в том числе, - распознавание лиц и голоса; появление алгоритмов принятия решений. Поэтому английский экономист Р. Бутл назвал грядущие десятилетия «экономикой искусственного интеллекта» [1]. Тенденция делегирования большего количества обязанностей машинам и повышения их интеллекта вряд ли замедлится, поскольку от этого будет зависеть дальнейший экономический рост [2]. Тем не менее, качественный скачок в использовании моделей ИИ больше наблюдается в ожиданиях учёных и предпринимателей, чем в реальной экономике. Одновременно, в экономических дисциплинах наибольший прогресс в XXI веке продемонстрировала «поведенческая экономика», которая исследует реальные причины осуществления решений фирмами, потребителями, работниками. В экономическом анализе прогресса искусственного интеллекта необходимо сопоставить его Выгоды с Издержками, включая риски применения. Победное шествие моделей искусственного интеллекта (ИИ), начавшееся с появления в ноябре 2022 года ChatGPT, порождает всё больше исследовательский вопрос: кто будет принимать решения в экономике? Останется ли эта роль как прежде за человеком, или алгоритмы ИИ будут принимать всё больше решений как на уровне предприятий, так и на уровне народного хозяйства? Или же мы вступаем в эпоху «гибридного отступления» когда всё увеличивающееся число решений передаётся моделям искусственного интеллекта, а за работниками остаётся координирующая и контролирующая роль, которая постепенно ослабевает по мере развития ИИ? Цель статьи: выявить специфику принятия экономических решений на основе взаимосвязи моделей ИИ и поведенческой экономики.
Поведенческая экономика, в отличие от традиционной экономики, исходит из того, что человек не является homo o Economicus, то есть экономическим агентом, принимающим только рациональные решения. Напротив, когда дело доходит до принятия решений, люди преимущественно следуют своей интуиции и простым эмпирическим правилам [3]. Согласно поведенческой науке, это быстрее, часто правильно или, по крайней мере, достаточно хорошо. Как следствие, на решения людей влияют факторы, которые рациональный гомоэкономус игнорирует [4]. Поэтому во всех экономических дисциплинах и, в частности, в маркетинге, важно учитывать открытия поведенческой экономики. Так, Н. Солдатова и др. указывают, что необходимо совершенствование теорий, где отражены психологические аспекты экономического поведения, что позволяет адаптировать маркетинговую деятельность к новым современным реалиям. Особенностью современной поведенческой модели является то, что потребители ведут себя интуитивно, неоптимально [5].
Кроме того, что следует учесть, что часть решений экономические агенты, особенно покупатели, принимают не свободно, а под воздействием методов поведенческой экономики. Это отражается в следующем комментарии: что выбирается из десяти, зависит от того, как представлен выбор [6]. Обрамление выбора (фрейминг) – это уже дело поведенческой экономики. Объединение метолов поведенческой экономики с технологиями искусственного интеллекта позволяет компаниям – продавцам, работодателям, государству подталкивать потребителей (работников, граждан) к нужным им решениям. Существующие модели ИИ за счёт изучения предпочтений конкретных покупателей могут предоставлять им персональные рекомендации, которые меняют их предпочтения в Интернете. В связи с этим всё большее значение приобретает вопрос об этичности такого подталкивания, о границах вмешательства систем искусственного интеллекта в свободу потребительского выбора граждан. Следует согласиться, что требуются междисциплинарные усилия для изучения процессов изменения предпочтений и разделения допустимых изменений потребительского выбора и прямого манипулирования предпочтениями владельцами систем искусственного интеллекта [7].
Объединение технологических и социальных инноваций, - технологий искусственного интеллекта и поведенческой экономики, - способно обеспечить эффективное экономическое развитие всего человечества. Почему не удаётся достичь синергетического эффекта от взаимодействия работников с искусственным интеллектом? Причины лежат, на наш взгляд, как со стороны технологий, так и со стороны поведения человека, общающегося с моделями ИИ. В данной статье мы подробнее остановимся на второй проблеме.
Особенности принятия решений работником и моделями искусственного интеллекта
В понятии «Искусственный интеллект» следует разделять два составных элемента. «Искусственный» здесь понимается как нечеловеческий, то есть иной, чем у человека Интеллект. Это подразумевает построение интеллекта не естественным образом, как мы считаем для нашего интеллекта, а иным образом, с иной логикой построения. Второй элемент – это «интеллект». Если допустить что интеллект может быть (может существовать) не только человеческий, что по сути происходит сейчас с развитием искусственного интеллекта, то надо больше исследовать потенциальные возможности и ограничения ИИ.
Требуется, на наш взгляд, переосмысление существующей концепции «интеллекта» и признание множества его форм и комбинаций. Как отмечал Кортелинг и др., центральное место в этой более широкой, многогранной концепции интеллекта занимает представление о том, что интеллект сам по себе представляет собой информацию и вычисления, не зависящие от его физического субстрата. Однако природа этого физического субстрата (биологический/углеродный или цифровой/кремниевый) будет существенно определять его потенциальную оболочку когнитивных способностей и ограничений [8]. Например, человеческие познавательные способности базируются на основе биологических нейронных сетей. Поэтому обработка небиологической информации протекает у нас с различными искажениями и ограничениями. Например, абстрактные вычисления проводятся людьми с каждым годом всё хуже и хуже. Опросы, периодически проводимые автором, показывают, что как персонал со стажем, так и обучающиеся, не всегда принимают рациональные решения. Прослеживается следующая закономерность, что чем старше человек, тем меньше он уверен в рациональности принятых им решений.
Принятие решений человеком, как показывает поведенческая экономика, не всегда принимаются обдуманно и рационально. Часто даже самые судьбоносные решения принимаются спонтанно, в «последний момент». Так, опрос, проведенный автором 11 и 12 января 2024 г. со студентами 2 курса УАГС (Управление и аналитика в государственной службе) НИУ ВШЭ (N = 57), показал, что 73,68% обучающихся приняли решение о поступлении именно сюда только после сдачи ЕГЭ. Аналогичный опрос, проведенный 17 января 2024 г. (N = 41) показал, что 75,6% обучающихся приняли решение о поступлении именно сюда только после сдачи ЕГЭ.
Для сопоставления решений одной и той же проблемы человеком и ИИ нужно ввести критерий успешности: лучшее решение одних и тех же задач в экономике работником и алгоритмом ИИ. Люди надеются, что использование искусственного интеллекта и роботов позволит им увеличить число решений, принимаемых системой 2 (по Д. Канеману) и уменьшить число решений, принимаемых системой 1. Напомним, что по Д. Канеману, нобелевскому лауреату по экономике, [19] система 1 всегда активна, очень быстрая, обрабатывает всю информацию параллельными потоками, на основе ассоциаций, но имеет недостатки. Она медленно обучается, и с трудом меняет присущие ей автоматизмы. Поскольку работа человеческого мозга забирает свыше четверти всей используемой организмом энергии, то сейчас люди, стремясь быть энергосберегающими, стараются использовать преимущественно систему 1, а не систему 2.
Действительно ли ответы, предлагаемые большими языковыми моделями (БЯЗ), являются качественно лучшими, чем решения соответствующих работников-специалистов? Там, где действуют чёткие правила (границы) и возможны выигрышные ходы в пределах определённой игры (смоделированной ситуации), то «да». Например, компания Google DeepMind создала модель AlphaGo, которая смогла победить в 2017 году чемпиона мира по игре в Го, также как предыдущая модель смогла победить чемпиона мира по игре в шахматы. Однако пока в большинстве случаев в реальной экономике так не происходит.
Решение многих вопросов в хозяйственной жизни связано с неопределённостью и риском. Ведение предпринимательской деятельности и выявление потребительских предпочтений, работа хорошего педагога и врача не имеют однозначно выигрышных ходов, они более сложны, чем смоделированная игра. Именно поэтому большие языковые модели (БЯЗ) лучше определяют поломку механизмов, чем предсказывают выбор покупателя. Следовательно, в эффективности принятия решений связкой «Человек – Искусственный интеллект» по-прежнему многое зависит от работников, вводящих данные для обучения БЯЗ, чтобы различать ответы хорошего и плохого качества. Принятие решений и труд людей должны не столько конкурировать с принятием решений ИИ, сколько определять направления его развития (его реализации) [10]. Чем больше Общественное разделение труда, тем шире возможности для применения ИИ, тем активнее должна быть координирующая роль человека (работника).
Сегодняшние БЯЗ, как отмечает Хардинг и др., являются умелыми имитаторами языкового поведения человека. Ответы LLM точно соответствуют ответам среднестатистического человека на различные запросы [11]. Привлекательность использования технологий искусственного интеллекта в научных исследованиях связывается с обещаниями повысить производительность и объективность путём преодоления человеческих недостатков. Однако решения, предлагаемые большими языковыми моделями, могут использовать наши когнитивные ограничения, делая нас уязвимыми перед иллюзиями понимания, когда мы считаем, что понимаем о мире больше, чем на самом деле. Подобные иллюзии затмевают способность научного сообщества увидеть формирование научных монокультур, в которых некоторые типы методов, вопросов и точек зрения начинают доминировать над альтернативными подходами, что делает науку менее инновационной и более уязвимой для ошибок [12].
Взаимодействие работников и алгоритмов искусственного интеллекта в командной работе и не только…
“Принятие решений человеком и ИИ не достигло своей цели по достижению взаимодополняемости: команды человека и искусственного интеллекта должны работать лучше и, следовательно, принимать лучшие решения, чем люди или ИИ по отдельности” [13]
Для объяснения этого факта, по нашему мнению, существуют несколько причин. Во-первых, недостаток доверия людей к решениям, принимаемым алгоритмами искусственного интеллекта. Использование ИИ приводит иногда к смерти пациента [14], к ошибочной идентификации преступника алгоритмом распознавания лиц; к обеспокоенности медиков по поводу использования ИИ для принятия важных решений, связанных со здоровьем человека [15] к массовой критике и возмущению общественности, когда алгоритм Google, применяемый в Google Photos, который использует сложный искусственный интеллект для распознавания лиц, ошибочно классифицировал цветных людей как горилл; к проезду беспилотного Uber на красный свет и возможности аварии. Поэтому вероятность того, что люди будут полностью доверять советам и рекомендациям, предлагаемым такими системами, пока низка.
В целом, существуют два класса причин, которые создают неопределённость и недостаток доверия, связанные с системой ИИ. Во-первых, класс алгоритмов машинного обучения, которые лежат в основе прогресса систем искусственного интеллекта (в совокупности называемые алгоритмами глубокого обучения), непрозрачен, труден для понимания и генерирует настолько большую комбинацию входных и выходных данных, что каждый день практикующий ИИ-практик сталкивается с этой проблемой: найти правильный алгоритм, который мог бы соответствовать поставленной цели, — огромная задача [16], [17]. Во-вторых, даже если алгоритм идентифицирован, многие из этих алгоритмов не могут объяснить свои результаты даже своим программистам, не говоря уже о конечных пользователях. Они действуют как черные ящики (т. е. устройства, которые можно рассматривать с точки зрения их входов и выходов, без каких-либо знаний об их внутренней работе) и не могут объяснить, как они пришли к своим решениям [18].
Другой гранью проблемы доверия является чрезмерная уверенность в решениях, принимаемых искусственным интеллектом; недостаточная интуиция для снижения чрезмерной зависимости от ИИ. Устойчивый феномен чрезмерной уверенности, когда люди соглашаются с искусственным интеллектом, даже если он неверен, мешает работе команд, принимающих решения с участием человека и ИИ. Из возможных типов ошибок при принятии решений с помощью взаимодействия работников и искусственного интеллекта чрезмерная уверенность является наиболее частым результатом в эмпирических исследованиях ИИ [13], [19], [20]
Объяснимый ИИ был предложен в качестве средства смягчения последствий, но экспериментальные доказательства того, что объяснения уменьшают чрезмерную уверенность, пока не нашли подтверждения. Исследователи предполагают, что само наличие объяснения увеличивает доверие [20] и что объяснения привязывают людей к предсказанию [19]. Чрезмерная уверенность вызывает особую озабоченность в областях с высокими ставками, создавая риск усиления машинной предвзятости [21] под прикрытием человеческой деятельности. Эффективным способом решения данной проблемы является, по нашему мнению, подход, разработанный Васконселос и др., который приводит чёткие доказательства, что объяснения на самом деле могут уменьшить чрезмерную уверенность без необходимости использования принудительных функций [22]. Исследователи применяют экономический метод «Издержки – Выгоды». Необходимо оценить поставленную задачу, решаемую искусственным интеллектом, и объяснение с точки зрения когнитивных затрат. Это ранжирует все задачи и объяснения на когнитивно затратные (трудные) и когнитивно дешёвые (легкие). Если мы составим матрицу исходов, то будет чётко видно в каком из четырех вариантов, можно ожидать, что люди будут просто полагаться на прогнозы ИИ, не проверяя их тщательно. В качестве примера такого сопоставления Бансал и др., приводят случай, когда ответ на вопрос о понимании прочитанного требует прочтения отрывка и необходимы такие же когнитивные усилия, как и чтение объяснений на естественном языке, сгенерированных ИИ [13].
Далее, меняя соотношение «Издержки – Выгоды», можно мотивировать работников избегать чрезмерного доверия в ИИ. Если бы мы сделали задачу намного более сложной и, следовательно, более дорогостоящей, в то время как объяснение оставалось бы столь же дорогостоящим, как и раньше, объяснение внезапно стало бы гораздо более предпочтительным, и чрезмерная уверенность уменьшилась бы. Это связано с тем, что, условно говоря, проверить объяснение ИИ стало очень легко по сравнению с выполнением задачи в одиночку (очень затратно) или полагаться на ИИ (нежелательно из-за возможных ошибок). Аналогичным образом, если бы объяснение стало значительно легче проверить, чем раньше, оно стало бы предпочтительнее, и чрезмерная уверенность уменьшилась бы [22].
Кроме того, во взаимодействии «Человек – Искусственный интеллект» всё активнее проявляются ограничения, как со стороны работников, так и со стороны больших языковых моделей. Прогресс последних сейчас лимитируется возрастающей до миллиардов долларов стоимостью обучения БЯЗ, исчерпаемостью качественных текстовых данных в общедоступном Интернете к 2026 году, увеличением мощности компьютерных чипов. Поэтому решение количественных проблем за счёт «гипотезы масштабирования» считается средством превзойти человеческие возможности. Нам это кажется избыточным оптимизмом. С 2017 г. в большинстве моделей искусственного интеллекта используется тип архитектуры нейронной сети, известный как трансформер (преобразователь) («t» в gpt). Но его потенциал исчерпывается. Масштабирование контекстных окон крайне неэффективно с вычислительной точки зрения: по мере того, как входные данные удваиваются, объём вычислений, необходимых для их обработки, увеличивается в четыре раза. А. Гу и Т. Дао предложили альтернативную архитектуру под названием Mamba (Мамба). Если проводить аналогии, то трансформер читает все страницы книги сразу, а Мамба читает их последовательно, обновляя свое мировоззрение по мере продвижения. Это не только более продуктивно, но и более точно соответствует тому, как работает человеческое понимание [23].
Получается, что технологические решения, имитирующие человеческий путь познания, оказываются более эффективными. Понимая это, исследователи создающие большие языковые модели осваивают работы Д. Канемана и поведенческую экономику в целом. Так, А. Карпати, работавший в OpenAI, отмечал, что нынешние большие языковые модели (БЯЗ) способны мыслить только «системой 1». Системам искусственного интеллекта могут потребоваться алгоритмы, способные к так называемому поиску — способности наметить и изучить множество различных вариантов действий, прежде чем выбрать лучший [24].
Несомненно, чтобы работники и алгоритмы искусственного интеллекта лучше взаимодействовали, нужно, чтобы они лучше понимали мышление друг друга, логику принятия решений другими акторами. В связи с этим, может быть, следует развивать, расширять преподавание поведенческой экономики для лиц, которые применяют (будут применять) искусственный интеллект.
Каково в целом влияние технологий искусственного интеллекта на принятие решений современными работниками? Становятся ли они более производительными, более конкурентоспособными на рынке труда? Наверно, да. Однако это сопровождается отмиранием многих человеческих способностей. Современные взрослые работники хуже и медленнее, чем их предшественники, считают, менее грамотно пишут. Крайним проявлением этой тенденции служат англосаксонские страны. В США доля работников от 16 до 24 лет, которые малограмотны и плохо считают составляет 30 процентов от их возрастной, всего лишь на 2 процента меньше, чем для работников в возрасте от 55 до 65 лет. В Англии эти две возрастные группы имеют практически одинаковый процент малограмотных и плохо считающих, равный тридцати процентам. [25].
Цифровой маркетинг или «надзорный капитализм»?
Наиболее успешным на практике взаимодействие между технологиями искусственного интеллекта и работниками, использующими методы поведенческой экономики, стало в программных приложениях. Это направление развития можно назвать «цифровой маркетинг». Под «цифровым маркетингом» понимается маркетинг, используемый в программных приложениях с помощью методов поведенческой экономики. Поскольку всё больше потребителей и клиентов используют Интернет ежедневно, то значение данного направления возрастает. Зарубежный опыт в течение более 10 лет показывает выгодность такого сотрудничества. Фактически, в настоящее время существует множество программных приложений, которые используют поведенческую экономику и экономистов в своих продуктах, ценностных предложениях или коммерческих предложениях, чтобы предоставить пользователям новые возможности в их повседневной жизни [26].
В развитие цифрового маркетинга мы выделяем два этапа, различающихся между собой по степени использования положений поведенческой экономики. На первом этапе в программных приложениях, в основном, используется концепция подталкивания. Цель – «зацепить» клиента, привлечь как можно больше новых потребителей. По сравнению с традиционным маркетингом, воздействующим на массовых клиентов посредством придорожного щита или рекламы по телевидению, здесь появляется возможность персонализированного влияния на конкретного покупателя. К достоинствам можно также отнести фактор «невидимости» воздействия программных приложений. Как и в офлайн-магазине, покупатель не замечает воздействия методов мерчандайзинга, считая, что он сам выбрал данный продукт, так и здесь клиенты уверены в самостоятельности своего выбора. С точки зрения традиционного маркетинга первый этап соответствует тому, что мы переживали несколько десятилетий назад [27]. Достаточно вспомнить ту острую борьбу за клиентов, которую вели между собой сотовые операторы РФ.
В идеале на первом этапе стремятся к созданию behavior change technique (BCT) (техники изменения поведения (TИП), называемой «градуированные задачи», в которой разработчик вмешательства «ставит задачи, которые легко выполнить, делая их всё более трудными, но достижимыми, пока поведение не будет выполнено» [28]. На практике такое вмешательство часто связано с манипулированием и даже попытками зомбирования потенциальных клиентов.
В результате подталкивание и другие поведенческие конструкции работают в ограниченных регистрах «онлайн-манипуляций» [29] или «модификации поведения» [30]. Эта негативная реакция общественности создала «цифровому маркетингу» негативную репутацию, как это было раньше с традиционным маркетингом. Крайнюю позицию здесь занимает C. Зубофф с концепцией «надзорного капитализма». Она утверждает, что капиталисты наблюдения обнаружили, что наиболее прогнозируемые поведенческие данные получаются в результате вмешательства в ситуацию с целью подталкивать, уговаривать, настраивать и направлять поведение к прибыльным результатам [30]. На взгляд автора, это крайняя позиция, своего рода «теория заговора» для поведенческой экономики и искусственного интеллекта. Вместе с тем, 12 954 цитирований на 03 мая 2024 г. статьи C. Зубофф свидельствуют о популярности данной точки зрения.
В целом первый этап основан на рациональности поведения покупателя, на растущих рынках и имеет свои объективные ограничения из-за применения «подталкивающей» экономики. Проблема последней в краткосрочности воздействия на потребителя и его привыкании к мерам подталкивания. Можно привести такое сравнение. Если на первом этапе для привлечения клиентов достаточно разместить фотографии привлекательных людей, снизивших свой вес, то по мере того, как рынок «взрослеет». (становится более насыщенным приложениями, предназначенными для снижения веса), потребители ищут решения, которые действительно «работают».
Второй этап «цифрового маркетинга» проходит в мире стадию формирования. Его отличительными чертами являются стремление использовать все положения поведенческой экономики и обеспечить долговременное влияние на принятие решений покупателем. В традиционном маркетинге ему соответствует стадия удержания «лояльных» клиентов, которая в несколько раз сложнее и дороже первой стадии. На втором этапе поведенческая экономическая позиция разрабатывается как рыночное предложение, которое реализуется в разработке и маркетинге программного продукта, в рутинных практиках проектирования продукта (пользовательский опыт, функции) и в стратегии продукта (ценностные предложения, бизнес-предложения модели) [31]. По сути, здесь говорится о долгосрочном воздействии на потребителя (той или иной платформы) в отличие от традиционного подхода «подталкивающей» экономики. Необходимо создать увлекательный опыт, который побудит пользователей иметь «надлежащий уровень взаимодействия» с продуктом, чтобы они могли продолжать участвовать в мероприятиях по изменению поведения [32]. В качестве позитивного кейса можно привести опыт страховой компании из ЮАР. Ведущая страховая компания Южной Африки Discovery использует платформу Vitality, чтобы побудить своих клиентов к здоровому образу жизни, экономически стимулируя их скидками на здоровую еду, путешествия, членство в фитнес-клубе, товары для здоровья, спортивный инвентарь и тому подобное. Участники зарабатывают свои баллы, отмечая тренировки в «привязанных» фитнес-клубах или покупая здоровую пищу, которая также записывается на их карту Vitality. Программу пользуется многолетней популярностью у клиентов компании. На наш взгляд, это пример того, как использование положений поведенческой экономики (цифрового маркетинга) позволяет реально перестроить поведение потребителей в лучшую сторону.
Сравнивая, первый и второй этапы «цифрового маркетинга», следует отметить, что в реальности их методы часто смешиваются, перекрываются и переплетаются. Тем не менее, предложение поведенческой экономики применительно к разработке программного обеспечения на втором этапе, заключается в создании продукта, который продуман, разработан и спроектирован так, чтобы стать чем-то, без чего пользователь не может обойтись не потому, что он вызывает привыкание, а потому, что он стал незаменимым для «вселенной распределенных действий» поведенческой проблемы [33]. Это конечно сложнее и требует значительно больших усилий, но и эффективность таких действий значительно выше.
В «цифровом маркетинге», - маркетинге XXI века, - наблюдаются абсолютно те же самые тренды, что происходили и в обычном (стандартном) маркетинге. Там то же в начале нужно было привлечь как можно больше клиентов, а – затем «удержать» их. Всё повторяется, пусть и на новом технологическом уровне.
Будущее в принятии экономических решений: человек или искусственный интеллект?
В идеале, как на рабочем месте, так и в разработке политики предполагается, что наиболее плодотворные приложения искусственного интеллекта будут дополнять и компенсировать врожденные биологические и когнитивные ограничения людей. В реальности так происходит далеко не всегда. Выделим две области принятия решений в экономике с точки зрения взаимодействия работников и моделей искусственного интеллекта.
Первая – это обычные решения, в которых алгоритмы ИИ подсказывают возможно лучшее решение и предупреждают о потенциальных рисках. Принятие окончательного решения остаётся прерогативой человека. Существует много потенциальных полей приложения помощи искусственного интеллекта. Медицина [34] и право [35] могут быть названы в числе первостепенных. В этих сферах ошибочные или избыточные решения, принимаемые бесконтрольными специалистами, могут быть губительными для людей. Так, Дж. Доменигетти, экономист кантонального ведомства здравоохранения в Тичино (Швейцария) решил с коллегами выяснить: проводят ли хирурги больше операций, чем строго необходимо. Они обнаружили, что чем более сложный случай был у больного, тем больше учитывалась осведомленность пациентов о лечении. Лучше среди всех пациентов осведомлены, конечно, другие врачи. Поэтому врачи шли под нож гораздо реже, чем среднестатистический житель Тичино [36].
Вторая – это решения с высокой ставкой, где цена ошибки очень дорогостоящая или может привести к гибели людей. В качестве примера можно привести вождение автомобилем, управление энергетикой, финансовую торговлю, управление воздушным движением. В частности, TopSky-ATC, система искусственного интеллекта, которая может отклонять проблемные траектории полета для увеличения потока и повышения безопасности. Как следствие, водители автомобилей, авиадиспетчеры, финансовые трейдеры уже регулярно видят, что их решения отменяются алгоритмами ИИ.
Исследовательским вопросом здесь является: как надзор моделей искусственного интеллекта сказывается на работниках, и каковы последствия этого? Д. Альмог с коллегами провели многолетнее исследование, частично дающее ответ на этот вопрос. Они изучали принятие решений судьями в матчах большого тенниса после введения в 2006 году системы слежения Hawk-Eye (Ястребиный глаз). Вердикт ИИ считается окончательным. Неправильные решения линейных судей и арбитров теперь часто отменяются. На судьях надзор моделей искусственного интеллекта сказался очень противоречиво. С одной стороны, число ошибок снизилось на 8%. С другой стороны, изменилась структура ошибок. Снизилось, - примерно в два раза, - число ошибок типа II (вылет мяча с корта в аут) и увеличилось число шибок типа I (когда фиксируется удар мяча в площадь корта). Такое развитие событий было спровоцировано психологическими издержками судей, которые они стали нести из-за надзора ИИ. Ошибки типа II вызывают прекращение игры и всегда негативно воспринимаются как игроками, так и зрителями. Исследователи объясняют это тем, что отказ от решения может повлечь за собой психологические издержки (например, стыд и смущение из-за отклонения) и психологические выгоды (например, облегчение от исправления ошибок), то есть люди могут изменить свое принятие решений под надзором ИИ [37]. Это иллюстрирует, как идеи поведенческой экономики могут сыграть ключевую роль в понимании взаимодействия ИИ и человека [38].
В целом, на уровне народного хозяйства, надзор моделей ИИ над работниками приводит к социальным издержкам, проявляющемся в искажении принятия решений одними людьми относительно судеб других: врачами, судьями и другими специалистами, которые будут избегать решения сложных случаев под угрозой осуждения общества, опирающегося на алгоритмы ИИ. В краткосрочном периоде экономика, наверно, выиграет от этого. Но в долгосрочном периоде не приведёт ли это к тому, что люди перестанут повышать свою квалификацию, опасаясь негативного сравнения с большими языковыми моделями, и будут деградировать и как работники, и как граждане общества? Если модели искусственного интеллекта продолжат победоносно совершенствоваться, то вопрос о конкуренции в принятии экономических решений отпадёт сам собой и люди будут всё больше превращаться в бездумных потребителей, подобных обитателям Аксиомы из мультфильма ВАЛЛ-И. Подробнее это показано в [39].
Человеческий разум в целом превосходит пока существующие модели искусственного интеллекта, что порождает для всех национальных экономик проблему преимущественного инвестирования средств и усилий: в развитие моделей ИИ или в совершенствование человеческого капитала граждан?
Сегодня, после появления в ноябре 2022 г. ChatGPT, происходит качественное изменение воздействия ИИ на рынок труда: если раньше людей заменяли только там, где труд носил однообразный, рутинный характер, высвобождая их возможности для нестандартного умственного труда, то сейчас речь идёт о замене большими языковыми моделями практически всех видов интеллектуального труда. Каким будет место работника будущего в этом новом общественном разделении труда? Сами исследователи предлагают всё новые и новые направления применения технологий искусственного интеллекта. Например, инновации традиционно считались прерогативой людей, но менеджеры по инновациям всё чаще сталкиваются с конкурирующими технологиями, с быстро меняющейся бизнес-средой, с всё более конкурентными глобальными рынками, с изменчивыми политическими ландшафтами.
Выводы и дальнейшие исследования
Анализ, проведенный в статье, показал, что современная экономика вступает в период «гибридного отступления», когда всё большая часть решений передаётся моделям искусственного интеллекта. Число сфер народного хозяйства, в которых ИИ выступают в качестве консультанта, а принятие итогового решения остаётся за работником сокращается. Реальность 2024 г. такова, что алгоритмы ИИ «поправляют» принятые человеком решения. При этом искусственному интеллекту отдаётся приоритет над человеком. Это меняет поведение людей при принятии последующих решений. Последствие противоречивы: с одной стороны из-за конкуренции с ИИ возрастает точность (качество) принимаемых решений, с другой увеличилось число пусть неправильных, но приятных (предпочитаемых) обществом решений взамен объективных. Для предупреждения чрезмерного доверия работников к решениям искусственного интеллекта, разработчикам совместных систем «Искусственный интеллект – Человек» необходимо тщательно рассмотреть (рассчитать) как объяснения уменьшают когнитивные усилия по проверке ИИ по сравнению с стратегией чрезмерного доверия, требующей небольших усилий. Совместное принятие экономических решений на основе взаимодействия «Человек – Искусственный Интеллект» будет стремительно расширяться. Пионеры в этой области Талер и Санстейн предполагают, что руководителям организаций необходимо рассмотреть возможность найма специалистов со специальными знаниями в области поведенческой экономики, а также проведения внутреннего обучения по поведенческой науке [40].
Сейчас Россия в программных приложениях отстаёт на 10–11 лет от развитых стран. Мы продолжаем находиться на первом этапе, когда их разработкой занимаются только технические специалисты и поэтому мало конкурентоспособны. Между тем, с 2013–2014 гг. в мире для создания программных приложений широко привлекают специалистов по поведенческой экономике и экономистов к разработке своих продуктов, ценностных предложений или рекламных предложений, чтобы сделать продукты более привлекательными. У нас университеты практически не готовят специалистов по поведенческой экономике, как на уровне бакалавриата (специалитета), так и на уровне магистратуры. Крайне редко читаются курсы по Поведенческой экономике для студентов, осваивающих информационные технологии. Следовательно, чтобы стать конкурентоспособной и перейти на современный этап создания программных приложений, российской экономике необходимы изменения, как в подготовке IT-специалистов с чтением курсов по этике искусственного интеллекта, поведенческой экономике, управлению технологиями ИИ; так и к подготовке полноценных специалистов по Поведенческий экономике, способных работать в цифровом секторе народного хозяйства.
Взаимовоздействие моделей искусственного интеллекта и положений поведенческой экономики будет дальше расширяться, поэтому необходим дальнейший междисциплинарный анализ принятия решений в современной экономике, объединяющий технологические, экономические и социальные аспекты проблемы.
Источники:
2. Hengstler M., Enkel E., Duelli S. Applied artificial intelligence and trust—The case of autonomous vehicles and medical assistance devices // Technological Forecasting and Social Change. – 2016. – p. 105-120.
3. Лукичев П. М. Поведенческая экономика. - Санкт-Петербург, 2022.
4. Thaler R., Sunstein C. Nudge: The final edition. - London: Penguin, 2021. – 366 p.
5. Солдатова Н.Ф., Азарова С.П., Ребрикова Н.В. Поведенческая экономика в маркетинговом анализе: новые аспекты // Экономика, предпринимательство и право. – 2022. – № 5. – c. 1555-1566. – doi: 10.18334/epp.12.5.114633.
6. Belleflamme P., Lambert T., Schwienbacher A. Individualcrowdfundingpractices // Venture Capital. – 2013. – № 4. – p. 313–333.
7. Ashton H., Franklin M., Gorman R., Armstrong S. Recognising the importance of preference change: A call for a coordinated multidisciplinary research effort in the age of AI //arXiv preprint arXiv:2203.10525. – 2022
8. Korteling J. H., vande Boer-Visschedijk G. C., Blankendaal R. A., Boonekamp R. C., Eikelboom A. R. Human-versusartificialintelligence // Frontiersinartificialintelligence. – 2021. – p. 622364.
9. Канеман Д. Думай медленно… решай быстро. - Издательство АСТ. Москва, 2014. – 710 c.
10. Лукичев П. М., Чекмарев О.П. Экономика искусственного интеллекта: перспективы и риски. - Санкт-Петербург, 2023. – 188 c.
11. Harding J., D’Alessandro W., Laskowski N. G., Long R. AI language models cannot replace human research participants. - Ai & Society, 2023. – 1-3 p.
12. Messeri L., Crockett M.J. Artificial intelligence and illusions of understanding in scientific research // Nature. – 2024. – p. 49–58.
13. Bansal G., Wu T., Zhou J., Fok R., Nushi B., Kamar E., Weld D. Does the whole exceed its parts? the effect of ai explanations on complementary team performance // Proceedings of the 2021 CHI conference on human factors in computing systems. 2021. – p. 1-16.
14. Adarlo S. Lawsuit claims woman burned, killed by surgical robot. [Электронный ресурс]. URL: HTTPS://FUTURISM.COM/NEOSCOPE/LAWSUIT-WOMAN-KILLED-SURGICAL-ROBOT (дата обращения: 26.04.2024).
15. Maddox T. M., Rumsfeld J. S., Payne P. R. O. Questions for artificial intelligence in health care // Jama. – 2019. – № 1. – p. 31-32.
16. Gulati S., Sousa S., Lamas D. Design, development and evaluation of a human-computer trust scale // Behaviour& Information Technology. – 2019. – № 10. – p. 1004-1015.
17. Holmquist L. E. Intelligence on Tap: Artificial Intelligence As a New Design Material // Interactions. – 2017. – № 4. – p. 28–33.
18. AndrasP., L. EsterleM. GuckertT. A. HanP. R. LewisK. MilanovicT. PayneC. Perret, J. PittS. T. Powers, etal. 2018. “Trusting Intelligent Machines: Deepening Trust Within Socio-Technical Systems.” // IEEE Technology and Society Magazine Vol. 37 (4). P. 76–83
19. Buçinca Z., Malaya M. B., Gajos K. Z. To trust or to think: cognitive forcing functions can reduce overreliance on AI in AI-assisted decision-making // Proceedings of the ACM on Human-Computer Interaction. – 2021. – p. 1-21.
20. Zhang Y., Liao Q. V., Bellamy R. K. E. Effect of confidence and explanation on accuracy and trust calibration in AI-assisted decision making // Proceedings of the 2020 conference on fairness, accountability, and transparency. 2020. – p. 295-305.
21. Green B., Chen Y. The principles and limits of algorithm-in-the-loop decision making // Proceedings of the ACM on Human-Computer Interaction. – 2019. – p. 1-24.
22. Vasconcelos H., Jörke M., Grunde-McLaughlin M., Gerstenberg T., Bernstein M. S., Krishna R. Explanations can reduce overreliance on ai systems during decision-making // Proceedings of the ACM on Human-Computer Interaction. – 2023. – p. 1-38.
23. Gu A., Dao T. Mamba: Linear-time sequence modeling with selective state spaces //arXiv preprint arXiv:2312.00752. – 2023
24. AI’s next top model // The Economist. April 20th, 2024
25. The first mile // The Economist. September 24th, 2022
26. Wendel S. Designing for behavior change: Applying psychology and behavioral economics. - O'Reilly Media, 2020.
27. Москалёв М.В., Лукичев П.М. Маркетинг. / Учебное пособие для дистанционного обучения / Сер. Tacis. Укрепление реформ в сельском хозяйстве посредством образования. - Москва, 2000.
28. Michie S., Richardson M., Johnston M., Abraham C., Francis J., Hardeman W., Wood C. E. The behavior change technique taxonomy (v1) of 93 hierarchically clustered techniques: building an international consensus for the reporting of behavior change interventions // Annals of Behavioral Medicine. – 2013. – № 1. – p. 81-95.
29. Susser D., Roessler B., Nissenbaum H. Online manipulation: Hidden influences in a digital world //Geo. L. Tech. Rev. – 2019. – Vol. 4. – P. 1
30. Zuboff S. The age of surveillance capitalism. / Social theory re-wired. - Routledge, 2023. – 203-213 p.
31. Doyuran E. B. Nudge goes to Silicon Valley: designing for the disengaged and the irrational // Journal of Cultural Economy. – 2024. – № 1. – p. 1-19.
32. Cole-Lewis H. Ezeanochie N., Turgiss J. Understanding health behavior technology engagement: pathway to measuring digital behavior change interventions // JMIR formative research. – 2019. – № 4. – p. e14052.
33. Caliskan K., Wade M. DARN, Part 2: An Evidence-Based Research and Prototyping Method for Strategic Design // She Ji: The Journal of Design, Economics, and Innovation. – 2022. – № 3. – p. 319–335.
34. Raghu M., Blumer K., Corrado G., Kleinberg J., Obermeyer Z., Mullainathan S. The algorithmic automation problem: Prediction, triage, and human effort // ArXiv preprint arXiv. – 2019. – № 1903. – p. 12220.
35. Rambachan A. Identifying Prediction Mistakes in Observational Data. – 2022
36. Domenighetti G., Casabianca A., Gutzwiller F., Martinoli S. Revisiting the most informed consumer of surgical services: the physician-patient // International Journal of Technology Assessment in Health Care. – 1993. – № 4. – p. 505-513.
37. Almog D., Gauriot R., Page L., Martin D. AI Oversight and Human Mistakes: Evidence from Centre Court // ArXiv preprint arXiv. – 2024. – № 2401. – p. 16754.
38. Camerer C. F. Artificial intelligence and behavioral economics // The economics of artificial intelligence: An agenda. 2019. – p. 587-608.
39. Лукичёв П. М., Кузекова С.А. Роль визуального искусства как инновационной практики в преподавании экономических дисциплин // Инновации в образовании. – 2023. – № 12. – c. 86-94.
40. Fusaro R., Sperling-Magro J. Much anew about ‘nudging’. - McKinsey Quarterly, 2021.
Страница обновлена: 28.11.2024 в 18:57:24