Технологическая эффективность и человеческое достоинство: поиск равновесия между производительностью и уважением в эпоху инноваций
Коростелева В.В.1 ![]()
1 Финансовый университет при Правительстве Российской Федерации, Москва, Россия
Статья в журнале
Вопросы инновационной экономики (РИНЦ, ВАК)
опубликовать статью | оформить подписку
Том 16, Номер 2 (Апрель-июнь 2026)
Введение
Традиционная экономическая наука длительное время исходила из постулата о прямой зависимости между ростом материального благосостояния и повышением уровня субъективного благополучия. Утилитаристская парадигма, лежащая в основе многих макроэкономических моделей, предполагала, что увеличение валового внутреннего продукта автоматически трансформируется в рост удовлетворенности жизнью населения. Однако накопленные эмпирические данные последовательно ставят под сомнение этот тезис. Если экономический рост не гарантирует счастья, то какой механизм его обеспечивает? И как эта проблематика трансформируется в условиях, когда главным драйвером производительности становится искусственный интеллект?
В эпоху беспрецедентных технологических возможностей человеческое достоинство оказывается под новыми, ранее неизвестными угрозами. Алгоритмическая дегуманизация — использование алгоритмов и данных таким образом, который приводит к обращению с людьми как с «менее чем полностью человеческими» — нарушает фундаментальные права на свободу, равенство и достоинство [18]. Алгоритмическое управление, автоматизированный найм и увольнение, тотальный цифровой контроль, «галлюцинации» генеративных моделей — все это ставит под сомнение базовую ценность человека как автономного и уважаемого участника экономической деятельности. Регуляторные механизмы, призванные защитить достоинство, только формируются, а корпоративные практики варьируются от откровенно дегуманизирующих до обнадеживающих примеров ответственного внедрения.
Особого внимания заслуживает трансформация самой модели человека в экономической теории. Как показано в работах Антипиной О.Н. и др. [1], традиционная модель «экономического человека» перестает работать в условиях, где рациональность существенно ограничена не только поведенческими искажениями, но и алгоритмизированными направляющими силами цифровых технологий. Исследователи предлагают модель «счастливого человека» с его ограниченной рациональностью и стремлением к гедонизму как адекватную основу для понимания современного благосостояния. Фундаментальную базу этой модели составляет экономическая теория счастья, с помощью которой аргументируется взаимовлияние реального и «цифрового» благополучия.
Настоящая статья представляет собой попытку системного анализа обозначенных противоречий. В ней предпринята синтезирующая рамка, объединяющая категории счастья, достоинства и технологической эффективности. Такой подход, насколько известно автору, не получил еще развернутого освещения в отечественной научной литературе по инновационной экономике.
Актуальность. Актуальность темы исследования обусловлена несколькими факторами. В макроэкономическом плане наблюдается устойчивый разрыв между динамикой валового внутреннего продукта и показателями субъективного благополучия населения. Согласно отчету «Всемирный доклад о счастье» за 2025 год [14], Россия занимает 66-е место в мире по уровню счастья, уступая не только странам Западной Европы, но и Узбекистану (51-е место) и Казахстану (40-е место). Этот разрыв может свидетельствовать о необходимости дополнения традиционных критериев эффективности экономической политики показателями субъективного благополучия.
Цифровая трансформация, активно поддерживаемая государством, несет в себе не только возможности роста производительности, но и скрытые риски для занятости, социальной сплоченности и человеческого капитала. Как показывают данные «Барометра рабочих мест в сфере искусственного интеллекта» [22], каждый четвертый работник в мире трудится в профессии с высоким или средним потенциалом автоматизации. Доступ к переобучению распределен крайне неравномерно, что создает новое измерение социального неравенства. Российские исследователи А.А. Зудина [2] и Д.О. Стребков [3] также отмечают, что алгоритмическое управление на цифровых платформах создает новые вызовы для регулирования труда и защиты прав работников. В этих условиях достоинство работника все больше определяется его способностью к непрерывному обучению — способностью, которая сама по себе является функцией исходного социально-экономического положения.
На уровне глобальных институтов сформирован консенсус относительно необходимости этического регулирования искусственного интеллекта. ЮНЕСКО в Рекомендации об этике искусственного интеллекта [24] ставит человеческое достоинство в центр этики, называя его «фундаментом нашей автономии и равенства как человеческих существ». Европейский парламент в 2025 году принял Законодательную инициативу об алгоритмическом менеджменте [9], требующую, чтобы решения о найме и увольнении всегда принимались человеком. Однако национальные законодательства, включая российское, пока отстают от этих требований, что создает зону правовой неопределенности для бизнеса и реальные риски для работников.
Целью исследования является теоретико-эмпирический анализ взаимосвязи между технологической эффективностью (на примере внедрения искусственного интеллекта), человеческим достоинством и субъективным счастьем, а также выявление организационных, институциональных и регуляторных условий, при которых цифровая трансформация способствует устойчивому инновационному развитию, ориентированному на человека.
Научная новизна исследования заключается в разработке синтезирующей аналитической рамки, объединяющей три дискурса, которые до сих пор развивались изолированно: ограниченность валового внутреннего продукта как измерителя благополучия (парадокс Истерлина), феномен алгоритмического менеджмента (новые угрозы достоинству работника) и экономические выгоды от автоматизации («роботизированный дивиденд»). Такой синтез, насколько известно автору, не получил еще развернутого освещения в отечественной литературе по инновационной экономике.
На основе актуальных данных за 2025 год [17, 22, 25] выявлены и количественно оценены два фундаментальных разрыва современного этапа цифровизации: организационный разрыв (между экстенсивным внедрением искусственного интеллекта и способностью бизнеса извлекать из него устойчивую прибыль) и социальный разрыв (между обладателями и необладателями навыков в сфере искусственного интеллекта). Предложена авторская типология механизмов, посредством которых искусственный интеллект угрожает человеческому достоинству, включающая эрозию автономии и контроля, обесценивание профессионала, нечеловеческую «холодность» управления и феномен «морального отвращения».
В отличие от распространенного в литературе акцента на неизбежном конфликте между эффективностью и этикой, на основе анализа позитивных корпоративных кейсов (LG Electronics, Lloyds Banking Group, Lenovo, KT Corporation) доказано, что этичный искусственный интеллект не только возможен, но и экономически эффективен, что опровергает тезис о дилемме «производительность vs. достоинство».
Авторская гипотеза. Исходная гипотеза исследования состоит в том, что конфликт между технологической эффективностью и человеческим достоинством не является фатальным. Встраивание этических принципов (прозрачность, подотчетность, человеческий контроль, право на обжалование) в организационный дизайн внедрения искусственного интеллекта способно минимизировать риски для достоинства работников и повысить долгосрочную экономическую эффективность. Ключевым условием является переориентация целевых показателей с операционных (сокращение издержек) на стратегические (сохранение человеческого потенциала). Доступ к навыкам в сфере искусственного интеллекта и непрерывному обучению становится новым измерением социального неравенства, которое при отсутствии целенаправленной политики будет углубляться.
Методология. Методологическую основу исследования составил комплекс общенаучных и специальных методов. На теоретическом уровне применен системный анализ для выявления структурных взаимосвязей между категориями счастья, достоинства и технологической эффективности. Использован институциональный подход для анализа формальных (регуляторные инициативы) и неформальных (корпоративная культура) институтов, опосредующих внедрение искусственного интеллекта. Подход возможностей [1] А. Сена и М. Нуссбаум [23, 19], адаптированный для анализа искусственного интеллекта, позволил перевести абстрактное понятие «достоинство» в операционализируемые критерии: реальная автономия, социальное признание, контроль над условиями труда и справедливость оценки.
Эмпирический уровень исследования базируется на вторичном анализе данных глобальных отчетов [14, 17, 22, 25, 21]. Использован метод кейс-стади для углубленного анализа корпоративных практик внедрения искусственного интеллекта (как негативных, так и позитивных). Отбор кейсов осуществлялся по принципу максимальной вариации для охвата всего спектра исходов — от грубых нарушений достоинства до образцовых практик его защиты. Применен сравнительный анализ регуляторных подходов в различных юрисдикциях (Европейский союз, ЮНЕСКО) [8, 9, 24]. Для визуализации данных использованы таблицы, построенные на основе статистических выкладок оригинальных источников, а также метод триангуляции данных [2] для повышения надежности выводов.
Основная часть
Долгое время в экономической науке господствовало представление о прямой пропорциональной связи между увеличением валового внутреннего продукта и ростом субъективного благополучия населения [4, 5, 6]. Однако накопленные эмпирические данные последовательно ставят под сомнение данный тезис. Указанное противоречие получило в литературе название парадокса Истерлина: после преодоления определенного порога благосостояния дальнейшее увеличение валового внутреннего продукта на душу населения перестает коррелировать с повышением удовлетворенности жизнью [14]. Конкретное значение этого порога варьируется в зависимости от методологии расчета, однако само его существование подтверждается как межстрановыми сопоставлениями, так и лонгитюдными наблюдениями внутри отдельных национальных экономик [1, 14].
Таблица 1 — Топ-10 самых счастливых стран мира (World Happiness Report 2025)
|
Место
|
Страна
|
Индекс
счастья (0–10)
|
Динамика
к 2024
|
Ключевой
фактор
|
|
1
|
Финляндия
|
7,736
|
+0,028
|
Социальное
доверие
|
|
2
|
Дания
|
7,539
|
+0,018
|
Социальная
поддержка
|
|
3
|
Исландия
|
7,525
|
+0,025
|
Социальная
сплоченность
|
|
4
|
Швеция
|
7,345
|
-0,090
|
Баланс
работы и жизни
|
|
5
|
Нидерланды
|
7,306
|
н/д
|
Качество
жизни
|
|
6
|
Коста-Рика
|
7,439
|
+0,165
|
Социальные
связи
|
|
7
|
Норвегия
|
7,302
|
н/д
|
Благосостояние
|
|
8
|
Израиль
|
7,341
|
н/д
|
Социальная
поддержка
|
|
9
|
Люксембург
|
7,228
|
н/д
|
Высокий
ВВП на душу
|
|
10
|
Мексика
|
6,980
|
впервые
в топ-10
|
Семейные
ценности
|
Среди десяти стран — лидеров глобального рейтинга счастья обращает на себя внимание присутствие Коста-Рики и Мексики, которые не входят в число наиболее богатых государств мира [14]. Этот факт служит эмпирическим подтверждением того, что за пределами некоторого базового уровня материального достатка определяющую роль начинают играть иные факторы — прежде всего качество социальных связей и уровень межличностного доверия [1, 14].
Таблица 2 — Глобальный разрыв: ВВП на душу VS место в рейтинге счастья
|
Страна
|
ВВП
на душу (приблиз., долл.)
|
Место
в рейтинге счастья
|
Разрыв
«богатство — счастье»
|
|
США
|
~83
000
|
24
(исторический минимум)
|
значительный
|
|
Финляндия
|
~53
000
|
1
|
соответствует
|
|
Германия
|
~52
000
|
16
|
нейтральный
|
|
Япония
|
~45
000
|
55
|
значительный
|
|
Россия
|
~15
000
|
66
|
нейтральный
|
|
Коста-Рика
|
~17
000
|
6
|
превышает
ожидания
|
Как было показано выше, разрыв между богатством и благополучием достигает максимума в развитых странах [1, 14]. Наиболее ярко это видно на примере США: располагая одним из самых высоких в мире подушевых доходов (около 83 тысяч долларов), занимают лишь 24-е место в рейтинге счастья — это исторический минимум для данной страны [14]. Напротив, Коста-Рика с подушевым валовым внутренним продуктом примерно 17 тысяч долларов находится на 6-й позиции, что значительно превышает ожидания, основанные исключительно на ее экономических показателях [14]. Эти наблюдения убедительно демонстрируют: богатство страны и счастье ее граждан — далеко не тождественные величины. Возникает закономерный вопрос: какие же факторы, помимо дохода, в действительности формируют ощущение счастья?
Таблица 3 — Роль нематериальных факторов в формировании счастья
|
Фактор
|
Влияние
на счастье
|
Дополнительный
контекст
|
|
Удвоение
дохода домохозяйства (внутри страны)
|
+0,3
балла (по шкале 0–10)
|
эффект
одинаков в богатых и бедных странах
|
|
Социальная
поддержка (наличие плеча в трудную минуту)
|
сильное
влияние
|
в
богатых странах перевешивает эффект дохода
|
|
Ожидание
доброты от окружающих
|
сильное
влияние
|
значимость
выше, чем у высокой зарплаты
|
|
Совместные
приемы пищи
|
значительное
|
в
США количество обедающих в одиночестве выросло на 53% за 20 лет
|
|
Здоровье
(ожидаемая продолжительность здоровой жизни)
|
сильное
влияние
|
коррелирует
с доходом, но действует независимо
|
Среди устойчивых предикторов счастья, не сводимых к денежному измерению, выделяются качество социальных связей, воспринимаемая доступность помощи со стороны ближайшего окружения, генерализованное доверие к другим людям, а также состояние физического и психического здоровья. Особого внимания заслуживает феномен «ожидания доброты»: его предсказательная сила в регрессионных моделях систематически оказывается выше, чем у величины заработной платы. Это свидетельствует о фундаментальной потребности человека не просто в материальном вознаграждении, но в социальном признании и моральной поддержке. Показательна и тенденция последних двадцати лет: в США количество людей, обедающих в одиночестве, выросло на 53% — это можно рассматривать как прокси-индикатор эрозии социальных связей даже в условиях устойчивого экономического роста [14]. Выявленная структура счастья напрямую выводит к категории человеческого достоинства. Социальные связи, доверие, уверенность в том, что в трудной ситуации можно рассчитывать на помощь, и ожидание уважительного отношения со стороны окружающих — это не просто факторы хорошего настроения, а базовые, конституирующие компоненты достоинства как такового.
Если до сих пор речь шла о связи между экономическим ростом и благополучием в целом, то теперь необходимо обратиться к главному драйверу современной производительности — искусственному интеллекту [4, 6, 20]. Каким образом внедрение искусственного интеллекта соотносится с категориями счастья и достоинства, и не возникает ли здесь нового, еще более острого противоречия? Для ответа следует, во-первых, зафиксировать реальные масштабы цифровой трансформации, а во-вторых, выявить разрывы между декларируемыми ожиданиями и фактическими результатами.
Таблица 4 — Глобальное внедрение ИИ: разрыв между «использовать» и «зарабатывать»
|
Показатель
|
Значение
|
Контекст
|
|
Компании,
регулярно использующие ИИ (хотя бы в одной функции)
|
88%
|
рост
с 78% годом ранее
|
|
Компании,
вышедшие из стадии экспериментов и масштабирующие ИИ
|
≈
1/3
|
остальные
застряли в «пилотном аду»
|
|
Компании,
сообщающие о реальном финансовом эффекте (рост EBIT)
|
39%
|
несмотря
на высокую распространенность
|
|
Организации,
считающие, что ИИ повышает их инновационность
|
64%
|
«чувство
инновации» ≠ реальная прибыль
|
|
Компании,
ставящие эффективность главной целью внедрения ИИ
|
80%
|
но
прибыль получают те, кто ставит цели роста/инноваций
|
|
Компании,
экспериментирующие с AI-агентами
|
62%
|
но
до масштабирования на ключевые процессы дошли <10%
|
Высокая и быстро растущая распространенность искусственного интеллекта (88% компаний регулярно используют его хотя бы в одной бизнес-функции) на первый взгляд свидетельствует о триумфальном шествии технологии [17]. Однако за этим показателем скрывается менее оптимистичная картина. Лишь примерно треть организаций вышла из стадии пилотных проектов и масштабирует искусственный интеллект на значимые операционные процессы. Остальные, говоря метафорически, застряли в «пилотном аду» — ситуации, когда технология внедрена фрагментарно, не интегрирована в ключевые бизнес-процессы и, как следствие, не приносит системного эффекта. Только 39% компаний сообщают о реальном финансовом эффекте от искусственного интеллекта, измеряемом ростом прибыли до вычета процентов и налогов [17]. Почти две трети организаций используют искусственный интеллект, но не могут конвертировать это использование в измеримую прибыль. При этом 64% респондентов считают, что искусственный интеллект повышает их инновационность. Налицо разрыв между субъективным восприятием («чувством инновации») и объективным экономическим результатом. 80% организаций называют повышение эффективности главной целью внедрения искусственного интеллекта, однако реальную прибыль извлекают не те, кто фокусируется на эффективности как таковой, а те, кто ставит перед собой цели роста и инноваций. Это тонкое, но важное различие: эффективность — это оптимизация существующего, тогда как инновации — создание нового. Искусственный интеллект, как выясняется, гораздо лучше работает в парадигме второго типа. 62% компаний уже экспериментируют с автономными AI-агентами, но до масштабирования их на ключевые процессы дошли менее 10% [17].
Фиксируется фундаментальное противоречие современного этапа цифровизации. Экстенсивное распространение искусственного интеллекта опережает способность бизнеса выстраивать организационные модели, позволяющие извлекать из него устойчивую прибыль. Тезис о «бесплатной» технологической эффективности — о том, что внедрение искусственного интеллекта автоматически ведет к росту производительности без глубоких структурных изменений — оказывается под вопросом. Напротив, искусственный интеллект требует реорганизации труда, переопределения ролей и перераспределения ответственности. Именно на этом этапе возникает риск, что человеческое достоинство будет принесено в жертву операционной эффективности.
Если ситуация со стороны бизнеса — спрос на искусственный интеллект, организационные модели, финансовые результаты — уже обрисована, то для полноты картины необходимо обратиться к рынку труда. Следует выяснить, как внедрение искусственного интеллекта отражается на положении работников, их доходах и профессиональных перспективах.
Таблица 5 — ИИ на рынке труда: премия за навыки и ускорение изменений
|
Показатель
|
Значение
|
Период/Контекст
|
|
Работники
в профессиях с потенциалом воздействия GenAI (всего)
|
25%
(каждый четвертый)
|
из
них 16,3% — средняя, 7,5% — высокая степень автоматизации
|
|
То
же — в странах с высоким доходом
|
34%
|
доля
значительно выше, чем в мире в целом
|
|
Премия
к зарплате за владение AI-навыками
|
+56%
|
в
2024 году было +25%
|
|
Рост
производительности (выручка на сотрудника) в AI-интенсивных отраслях
|
27%
|
в
3 раза выше, чем в отраслях с низкой экспозицией к ИИ (9%)
|
|
Скорость
изменения требуемых навыков в AI-экспонированных профессиях
|
на
66% выше
|
чем
в профессиях с низкой экспозицией
|
|
Работники,
которые добавили AI-навыки в LinkedIn за последний год
|
+177%
|
наиболее
востребованы: ChatGPT (60%) и промпт-инжиниринг (38%)
|
Масштаб потенциального воздействия генеративного искусственного интеллекта на занятость весьма существенен: каждый четвертый работник в мире трудится в профессии, имеющей хотя бы средний потенциал автоматизации. В странах с высоким уровнем дохода эта доля достигает 34% [22]. Рынок труда реагирует на этот вызов формированием значительной премии за владение навыками в сфере искусственного интеллекта. За один лишь 2024–2025 год эта премия выросла с 25% до 56% — работник, обладающий соответствующими компетенциями, зарабатывает в полтора раза больше коллеги без таких навыков. Аналогичные тенденции фиксируются и в российской экономике, где цифровые платформы и алгоритмическое управление становятся источником новых рисков для занятости и достоинства работников [2, 3]. Скорость изменения требуемых навыков в профессиях, подверженных влиянию искусственного интеллекта, на 66% выше, чем в профессиях с низкой экспозицией к нему [22]. Даже те, кто уже получил премию, не могут останавливаться: требования к их компетенциям меняются почти вдвое быстрее, чем в среднем по экономике. Возникает феномен «бегущей дорожки»: чтобы сохранить свою премию и рабочее место, работник вынужден постоянно учиться с нарастающей скоростью.
Резкий рост числа работников, добавляющих навыки в сфере искусственного интеллекта в свои профессиональные профили (+177% за последний год), отражает массовую адаптивную реакцию на технологический вызов. Важно подчеркнуть: высокий потенциал автоматизации профессии не означает автоматической потери рабочих мест. В период с 2019 по 2024 год занятость в профессиях с высоким риском автоматизации увеличилась на 38%, тогда как в профессиях с низким риском автоматизации рост занятости составил 65% [22]. Это опровергает упрощенный нарратив о массовой безработице, вызванной искусственным интеллектом, но подтверждает тезис о дифференциации: одни профессиональные сегменты развиваются медленнее других, а разрыв в темпах роста между ними увеличивается.
Стремительное расслоение рынка труда становится все более очевидным. Те, кто владеет навыками в сфере искусственного интеллекта, получают значительную и быстро растущую экономическую премию. Те, кто не владеет, рискуют оказаться на периферии. Доступ к обучению и переквалификации распределен крайне неравномерно — как между странами, так и внутри них, между разными социальными группами. В таких условиях достоинство работника все больше определяется его способностью к непрерывному обучению. Тот, кто не успевает за ускоряющимся темпом изменений, сталкивается не только с материальными потерями, но и с утратой профессиональной идентичности, социального статуса и самоуважения — то есть именно тех компонентов, которые составляют ядро человеческого достоинства и субъективного счастья.
Проведенный анализ выявляет двойной разрыв. С одной стороны, массовое внедрение искусственного интеллекта не трансформируется автоматически в экономическую прибыль — бизнес застревает в «пилотном аду» и не всегда готов к глубокой реорганизации труда. С другой стороны, даже там, где искусственный интеллект дает измеримый эффект, он усиливает дифференциацию на рынке труда, создавая неравенство в доступе к навыкам непрерывного обучения. Оба этих разрыва имеют прямое отношение к человеческому достоинству: первый — через риск дегуманизации труда в погоне за эффективностью, второй — через закрепление социального неравенства и эрозию профессиональной идентичности.
Таблица 6 — Прогнозы занятости до 2030 года: созидательное разрушение или социальный раскол?
|
Прогнозный
показатель
|
Значение
|
Комментарий
|
|
Всего
будет создано новых рабочих мест [25]
|
170
млн.
|
14%
от текущей занятости
|
|
Будет
замещено существующих рабочих мест [25]
|
92
млн.
|
8%
от текущей занятости
|
|
Чистый
прирост рабочих мест [25]
|
+78
млн.
|
7%
от текущей занятости
|
|
Рабочих
мест может быть замещено роботами в обрабатывающей промышленности [21]
|
20
млн.
|
непропорционально
сильно ударит по низкоквалифицированным регионам
|
|
Ожидаемый
«роботизированный дивиденд» для мировой экономики [21]
|
5
трлн. долл.
|
за
счет роста производительности
|
|
Рост
занятости в AI-экспонированных профессиях [22]
|
+38%
|
опровергает
нарратив о массовой безработице, но отстает от +65% в низкоэкспонированных
|
|
В
какой доле компаний ИИ уже привел к сокращению штата (ожидания) [17]
|
32%
|
опрошенных
ожидают сокращений в ближайший год
|
Прогнозы ведущих исследовательских центров не рисуют картину «мира без работы». Всемирный экономический форум ожидает создания 170 млн. новых рабочих мест к 2030 году при замещении 92 млн. существующих, что дает чистый прирост в 78 млн. позиций (7% от текущей занятости) [25]. Однако новые рабочие места требуют иных навыков и концентрируются в одних секторах и регионах, тогда как замещение происходит в других. Оксфордская экономика прогнозирует замещение 20 млн. рабочих мест роботами в обрабатывающей промышленности к 2030 году, причем этот удар придется непропорционально сильно по низкоквалифицированным регионам [21]. 32% опрошенных компаний ожидают сокращения штата в ближайший год в связи с внедрением искусственного интеллекта [17]. Проблема заключается не в исчезновении рабочих мест как таковых, а в их трансформации и перераспределении. Доступ к переобучению становится новым измерением социального неравенства.
Прогнозы Всемирного экономического форума показывают масштаб грядущих изменений, но не объясняют их характера. Чтобы понять, что именно теряет работник в эпоху автоматизации, необходимо детально разобрать механизмы, с помощью которых алгоритмы вторгаются в сферу его автономии и самоуважения.
Таблица 7 — Как ИИ угрожает человеческому достоинству: механизмы и примеры
|
Угроза
достоинству
|
Механизм
воздействия
|
Конкретный
пример / Исследование
|
|
Эрозия
автономии и контроля
|
Алгоритмическое
управление (AM) подрывает возможность работника влиять на свой труд, график и
оценку результатов.
|
Исследование
2025 года показывает, что алгоритмический менеджмент ведет к усилению
контроля и наблюдения, снижению доверия к руководству и ограничению
возможностей для участия в принятии решений [18].
|
|
«Обесценивание»
профессионала
|
Автоматизация
сложных, творческих или управленческих задач подрывает чувство собственной
значимости и уникальности.
|
Исследователи
говорят о «кризисе достоинства в труде» (Crisis of Dignity at Work), когда
внедрение ИИ оправдывает сокращения персонала и закрытие программ, ставя под
угрозу социальный вклад целых профессий [11].
|
|
Нечеловеческая
«холодность» управления
|
Увольнения,
критика или оценка, проводимые алгоритмом, лишены эмпатии, объяснений и
человеческого контекста.
|
Пример,
ставший символом: увольнение ветерана Microsoft с 25-летним стажем через
алгоритм, что вызвало общественный резонанс и вопросы о моральной стороне
таких процессов [11].
|
|
«Моральное
отвращение» (Moral Repugnance)
|
Общество
может отвергать применение ИИ в определенных сферах (уход за детьми,
психотерапия), считая это аморальным, даже если это эффективно.
|
Исследование
Harvard Business School (2025) выявило «зоны морального трения» (moral
friction zones), где возможности ИИ сталкиваются с фундаментальным
неприятием. Например, использование ИИ для психотерапии или духовного
наставничества [11].
|
Достоинство атакуется не только через рынок труда, но и через сам способ взаимодействия с искусственным интеллектом. Алгоритмический менеджмент воспринимается как угроза не столько из-за риска увольнения, сколько из-за чувства потери контроля и обесценивания собственного труда. Особую категорию составляют «зоны морального трения» — сферы, где общество принципиально отвергает искусственный интеллект даже при его высокой эффективности, поскольку это затрагивает фундаментальные моральные нормы.
Таблица 8 — Кто теряет достоинство больше всего?
|
Уязвимая
группа
|
Источник
угрозы
|
Конкретные
риски для достоинства
|
|
Низкоквалифицированные
и неформальные работники
|
Алгоритмическое
управление, вытеснение с рабочих мест, структурная нестабильность.
|
Исследование
2025 года показывает, что ИИ преобразует саму природу труда и «человечности»
для этой группы, создавая условия, напоминающие современное рабство: эрозия
эмпатии, морального сознания и автономии под воздействием непрозрачных
алгоритмов.
|
|
Гиг-работники
и маргинализированные сообщества
|
Непрозрачное
ценообразование, дискриминация, чрезмерный контроль.
|
Исследование
«Gig Work at the Margins» (2025) фокусируется на двойственном эффекте
алгоритмического контроля на достоинство в зависимости от расы,
иммиграционного статуса и уровня дохода. Некоторые ценят алгоритмы за
предсказуемость, но другие страдают от нереалистичных сроков доставки и
вводящих в заблуждение скачков цен.
|
|
Работники,
чьи профессии попадают в «морально-чувствительные зоны»
|
Имморальность
использования ИИ (даже если он эффективен).
|
Оккупации,
требующие заботы, эмоционального труда и духовного лидерства (духовенство,
воспитатели, терапевты) сталкиваются с полным неприятием ИИ на моральном
уровне. Лучший и более дешевый ИИ здесь не меняет отношения.
|
Угрозы достоинству распределены крайне неравномерно. Наиболее уязвимы те, у кого и так меньше ресурсов для защиты своих прав — низкоквалифицированные работники, мигранты, гиг-работники [2, 3]. Проблема искусственного интеллекта в этом смысле представляет собой проблему неравенства в квадрате: технология не только воспроизводит существующие социальные различия, но и углубляет их, создавая новые механизмы исключения.
Для концептуального осмысления этих процессов необходим не только эмпирический, но и теоретический инструментарий.
Таблица 9 — Теоретические модели для анализа связи «ИИ — Достоинство»
|
Концептуальная
рамка
|
Основание
|
Суть
применительно к ИИ
|
|
«Социальная автономия» (Social
Autonomy Framework)
|
Фокс
(2025) — защита человеческого достоинства и осмысленного труда в эпоху ИИ
|
Теория
подчеркивает защиту индивидуальной автономии, но также признает центральную
роль социальных связей и признания для достоинства. Внедрение ИИ в рабочем
процессе должно оцениваться через то, как оно влияет на эти два измерения [11].
|
|
«Подход
возможностей» (Capability Approach)
|
Сен,
Нуссбаум — адаптировано для ИИ (2024)
|
ИИ
должен расширять реальные возможности человека жить той жизнью, которую он
ценит. В статье «Beneficent Intelligence» предлагается формализованная сеть
этических концепций, чтобы ИИ приносил пользу, не впадая в неоправданный
патернализм, принуждение или эксплуатацию [19, 23].
|
|
«Моральное трение» (Moral
Friction Zones)
|
Harvard
Business School (2025)
|
Вводит
различие между сопротивлением ИИ, основанным на производительности (будет
преодолено по мере улучшения технологий), и сопротивлением, основанным на
принципах (непреодолимо, так как затрагивает фундаментальные моральные нормы)
[11].
|
Для анализа связи искусственного интеллекта и достоинства требуется не только экономическая, но и философско-правовая оптика. Подход возможностей и теория социальной автономии позволяют перевести абстрактное понятие «достоинство» в набор конкретных, измеримых критериев: автономия, признание, контроль, справедливость. Это создает мост между теоретическими построениями и эмпирическими исследованиями.
Теоретические конструкции находят практическое воплощение в регуляторных инициативах, которые в последние годы активно формируются на глобальном уровне. На уровне глобальных институтов сложился консенсус: достоинство не может быть принесено в жертву эффективности.
Таблица 10 — Политики и регуляторные инициативы по защите достоинства (2024–2025)
|
Инициатива
/ Организация
|
Год
|
Ключевые
положения для защиты достоинства
|
|
ЮНЕСКО
— Рекомендация об этике ИИ
|
2021
(имплементация 2024–2025)
|
Ставит
человеческое достоинство в центр этики ИИ, называя его «фундаментом нашей
автономии и равенства как человеческих существ». Требует когнитивной свободы
и психической целостности при взаимодействии с ИИ и нейротехнологиями [24].
|
|
Европейский
парламент — Законодательная инициатива об алгоритмическом менеджменте
|
2025
|
Требует,
чтобы решения о найме/увольнении всегда принимались человеком, а не
алгоритмом. Запрещает сбор данных об эмоциональном состоянии, частных
разговорах и активности в нерабочее время. У работников должно быть право
оспаривать решения алгоритма [9].
|
|
ЕС
— Регламент об искусственном интеллекте (AI Act)
|
2024
|
Классифицирует
системы ИИ по уровню риска. Системы социального скоринга и удаленной
биометрической идентификации (в реальном времени) в публичных местах признаны
неприемлемым риском и запрещены [8].
|
|
ЕС
— Директива о платформенной работе (Platform Work Directive)
|
2024
|
Требует
прозрачности алгоритмов, используемых для управления гиг-работниками.
Работники имеют право на человеческий пересмотр автоматических решений [8].
|
Ключевые требования современных регуляторов — человеческий контроль («человек в цикле принятия решений»), прозрачность алгоритмов и возможность оспорить автоматическое решение. Эти принципы постепенно становятся стандартом, однако их имплементация на национальном уровне остается фрагментарной. Европейский союз выступает здесь пионером, тогда как другие юрисдикции (США, Китай, Россия) пока отстают в формировании законодательства, защищающего достоинство работников от алгоритмических рисков.
Особую ценность для понимания реальных последствий внедрения искусственного интеллекта представляют корпоративные кейсы — как негативные, демонстрирующие нарушения достоинства, так и позитивные, показывающие возможность этичного внедрения.
Таблица 11 — Реальные кейсы: как ИИ нарушает достоинство и права работников [11]
|
Кейс
/ Компания
|
Год
|
Что
произошло
|
Какое
достоинство нарушено
|
Экономические
последствия
|
|
Amazon
— рекрутинговый ИИ
|
2016–2019
|
ИИ
для найма систематически дискриминировал женщин, обучаясь на исторических
данных (преимущественно мужских резюме)
|
Дискриминация
по признаку пола, алгоритмическое воспроизводство предрассудков
|
Упущенная
выгода от отказа от инструмента; репутационные потери и критика со стороны
регуляторов [20]
|
|
Workday
— дискриминация при найме
|
2025
(с 2023)
|
Коллективный
иск Mobley v. Workday, Inc. о дискриминации по возрасту, pace и инвалидности
|
Дискриминация
по множественным признакам, алгоритмическая непрозрачность
|
Риск
для 11 000 компаний-клиентов; потенциальные миллиардные штрафы и
обязательства перед десятками миллионов соискателей [11]
|
|
Uber
Eats — расовая дискриминация
|
2024
|
ИИ
распознавания лиц не идентифицировал чернокожего водителя, что привело к
блокировке аккаунта и потере дохода
|
Расовая
дискриминация, унижение достоинства, лишение средств к существованию
|
Финансовое
урегулирование (сумма не разглашена); репутационные потери; риск дальнейших
исков [7, 15]
|
|
Starbucks
— алгоритмическое управление
|
2025
|
Алгоритм
Kronos создавал непредсказуемые графики, сокращал часы без согласия
сотрудников
|
Эрозия
автономии, отсутствие контроля над своей жизнью, финансовая нестабильность
|
Штраф
38,9 млн. долл. — крупнейшее в истории Нью-Йорка урегулирование по защите
прав работников [11]
|
|
Optifye.ai
— ИИ-слежка
|
2025
|
Демонстрация
системы мониторинга вызвала глобальное возмущение; Y Combinator удалила
материалы стартапа
|
Дегуманизация
труда, тотальная слежка, подрыв профессионального достоинства
|
Утрата
поддержки Y Combinator; невозможность привлечения инвестиций; полная
остановка развития проекта
|
|
Coach
Canada — ИИ-слежение
|
2025
|
ИИ-камеры
слежения нарушали права водителей на частную жизнь, достоинство и
справедливые условия труда
|
Нарушение
права на частную жизнь и достоинство, избыточный контроль
|
Частичное
удовлетворение жалобы профсоюза; обязательство изменить систему мониторинга
|
|
Concentrix
— колл-центры
|
2025
|
ИИ-слежка
и жесткие скрипты создают стрессовую атмосферу тотального контроля
|
Психологическое
давление, потеря профессиональной идентичности
|
Жалобы
в федеральный совет по труду США; риск регуляторных санкций и коллективных
исков
|
|
Microsoft
— увольнение ветерана алгоритмом
|
2025
|
Сотрудник
с 25-летним стажем уволен в день 48-летия «случайным выбором алгоритма»
|
Бесчеловечность
автоматизированных решений, отсутствие индивидуального подхода
|
Публичный
скандал на фоне сильных финансовых показателей (выручка 70,1 млрд. долл.,
прибыль 25,8 млрд. долл.); удар по репутации [11]
|
|
Deloitte
Australia — GenAI для госотчета
|
2025
|
Использование
GenAI для подготовки отчета за 440 000 долл. привело к множеству ошибок
и «галлюцинациям» ИИ
|
Подрыв
профессиональной ответственности, угроза качеству услуг
|
Частичный
возврат полной стоимости (440 000 долл.) австралийскому правительству
|
|
Google
— иск о смерти после общения с Gemini AI
|
2025–2026
|
Семья
жителя Флориды утверждает, что чат-бот выстраивал «иллюзорную фантазию» и
подводил пользователя к суициду
|
Угроза
жизни и психическому здоровью, отсутствие моральной ответственности
|
Падение
акций Alphabet на 0,04%, торги объемом 6,02 млрд. долл.; первый в истории иск
о неправомерной смерти, связанный с ИИ [11]
|
|
Darden
Restaurants (Olive Garden) — ИИ для увольнений
|
2025
|
ИИ-система
мониторинга POS-терминалов пометила транзакции менеджера как подозрительные,
что привело к увольнению без доказательств
|
Автоматическое
обвинение без доказательств, невозможность защитить себя перед
«судьей-алгоритмом»
|
Репутационные
потери; риск судебного разбирательства за необоснованное увольнение
|
Приведенные кейсы охватывают широкий спектр нарушений: от дискриминации при найме и алгоритмического управления графиками до дегуманизирующей слежки и автоматизированных увольнений. Общей чертой всех этих случаев является отсутствие человеческого контроля над критически важными решениями, затрагивающими судьбы людей. Экономические последствия варьируются от репутационных потерь до многомиллионных штрафов и коллективных исков с потенциальными обязательствами на миллиарды долларов.
Вместе с тем существуют примеры ответственного внедрения искусственного интеллекта, где защита достоинства встроена в бизнес-модель и приносит измеримые экономические дивиденды.
Таблица 12 — Примеры ответственного внедрения ИИ и защиты достоинства
|
Компания
|
Инициатива
/ Подход
|
Что
сделано для защиты достоинства
|
Измеримый
эффект
|
|
LG
Electronics
|
Публичная
ежегодная отчетность по этике ИИ (с 2025 года)
|
Пять
принципов: уважение к человечеству, справедливость, безопасность, подотчетность,
прозрачность
|
Рост
точности ИИ-моделей на 26%, ускорение обработки в 45 раз, сокращение затрат
до 0,1% от исходного уровня
|
|
Lloyds
Banking Group
|
Responsible
AI Programme
|
Признана
лучшей на DataIQ Awards 2025; превратила этику в операционную модель с внутренним
надзором
|
50
млн. фунтов ожидаемого роста доходов и повышения производительности в 2025
году; AI-грамотность 100% персонала к концу 2026 года
|
|
H&M
Group
|
Хартия
этики ИИ + обучение сотрудников
|
Обучающие
программы на конкретных бизнес-примерах, чтобы сотрудники знали, какие
вопросы задавать при внедрении ИИ
|
Оптимизация
ресурсов; внедрение ИИ для прогнозирования спроса, ценообразования и
управления запасами
|
|
Lenovo
|
Инклюзивный
и этичный ИИ
|
Инклюзивность
и справедливость встраиваются с самого начала разработки, включая
разнообразные наборы данных и пользовательское тестирование
|
Рост
выручки AI-серверного бизнеса на 155% год-к-году; 29% женщин в технических
ролях
|
|
Cisco
|
Принцип
«AI for Good»
|
Продвижение
инклюзивности и справедливости, предотвращение вреда, а не просто соблюдение
регуляторных требований
|
BridgeIT
— AI-агент для HR-запросов сотрудников; автоматизация трудоемких процессов
|
|
SK
Telecom
|
Управление
правами человека в ИИ
|
Предложила
ООН модель governance для ИИ, ориентированную на защиту прав человека
|
Внедрение
принципов T.H.E. AI: «by Telco» (связь и доверие), «for Humanity»
(разнообразие и благополучие), «with Ethics» (прозрачность)
|
|
KT
Corporation
|
Trustworthy
AI для корпоративного и государственного использования
|
Внедрение
оценки социального воздействия и системы AI Guardrail для блокировки опасных
ответов
|
Рост
выручки AI IT-бизнеса на 13,8%; 10 000 сотрудников используют AI-агентов для
повышения производительности
|
Позитивные кейсы показывают, что этичный искусственный интеллект не является противоречивым понятием. Компании, встраивающие защиту достоинства в свои ИИ-системы с самого начала, получают измеримые экономические выгоды: рост точности моделей, ускорение обработки данных, увеличение выручки и производительности. Эти результаты достигаются не вопреки, а благодаря этическим ограничениям — прозрачности, подотчетности, человеческому контролю. Это опровергает тезис о неизбежном конфликте между технологической эффективностью и человеческим достоинством, переводя вопрос в плоскость организационного дизайна и корпоративной культуры.
Заключение.
Проведенное исследование подтвердило, что традиционная модель экономического роста, отождествляющая увеличение валового внутреннего продукта с повышением уровня благополучия, утрачивает объяснительную силу после преодоления страной определенного порога материального достатка. Решающими факторами субъективного счастья становятся качество социальных связей, межличностное доверие и ожидание уважительного отношения — то есть именно те составляющие, которые образуют ядро человеческого достоинства.
Анализ глобального распространения искусственного интеллекта выявил два взаимосвязанных разрыва. Организационный разрыв заключается в том, что экстенсивное использование технологии (88% компаний [17]) не сопровождается способностью бизнеса извлекать устойчивую прибыль (лишь 39% фиксируют рост [17]). Социальный разрыв проявляется на рынке труда: премия за владение навыками в сфере искусственного интеллекта выросла за год до 56%, а скорость изменения требуемых компетенций в подверженных влиянию профессиях на две трети выше средней по экономике [22].
Механизмы угрозы достоинству многоканальны: алгоритмическое управление подрывает автономию работника; автоматизация сложных задач ведет к обесцениванию профессионала; решения, принимаемые алгоритмами, лишены эмпатии и объяснений. Наиболее уязвимыми группами выступают низкоквалифицированные работники и гиг-работники.
Корпоративные кейсы подтверждают, что игнорирование достоинства оборачивается прямыми финансовыми потерями (штраф Starbucks в размере 38,9 млн. долларов США). В то же время позитивные примеры демонстрируют, что этичный искусственный интеллект экономически эффективен - рост точности моделей, ускорение обработки, увеличение выручки достигаются благодаря этическим ограничениям.
Дальнейшие исследования целесообразно развивать по нескольким направлениям. Требуется количественная оценка связи между алгоритмическим менеджментом и субъективным благополучием работников, что предполагает разработку и валидацию соответствующих шкал для перехода от качественных кейсов к панельным исследованиям. Актуальным представляется сравнительный анализ национальных режимов регулирования искусственного интеллекта — сопоставление европейской, американской, китайской и российской моделей с точки зрения их эффективности в защите достоинства работников при сохранении инновационной динамики. Необходимо изучение долгосрочных психологических и социальных последствий феномена непрерывного ускоренного обучения («бегущей дорожки»), особенно для различных возрастных и социальных групп, включая возможное «выгорание от переобучения». Важной задачей выступает разработка и апробация инструментов «этичного искусственного интеллекта по умолчанию» — конкретных, внедряемых на уровне кода стандартов объяснимости алгоритмов и процедур человеческого контроля. Остается открытым вопрос о культурной вариативности «зон морального трения»: меняются ли границы приемлемого использования искусственного интеллекта в разных обществах со временем или существуют универсальные моральные ограничения? Наконец, перспективным направлением является макроэкономическое моделирование с целевой переменной, учитывающей сохранение и развитие человеческого достоинства, что позволит оценить оптимальные темпы технологической модернизации при человеко-центричном целевом функционале.
Поиск равновесия между технологической эффективностью и уважением к человеку представляет собой не компромисс, а условие устойчивого инновационного роста. По мере проникновения искусственного интеллекта во все сферы экономической и социальной жизни вопрос о сохранении человеческого достоинства перестает быть этической абстракцией и превращается в фактор конкурентоспособности и долгосрочного процветания. Выявленные в ходе анализа организационные условия (разрыв между внедрением и прибылью), институциональные (фрагментарность регуляторики) и регуляторные (отставание национальных законодательств) требуют комплексного подхода: ни один из этих уровней не может быть изменен изолированно.
[1] Capability approach (подход, основанный на возможностях/потенциале) переводится как «подход с точки зрения возможностей» или «концепция способностей». Это нормативная концепция (развитая А. Сеном и М. Нуссбаум), оценивающая благополучие человека не по доходам, а по реальной свободе выбора и способностям жить так, как он считает ценным
[2] Сопоставление результатов из независимых источников.
Страница обновлена: 21.04.2026 в 10:42:50
Tekhnologicheskaya effektivnost i chelovecheskoe dostoinstvo: poisk ravnovesiya mezhdu proizvoditelnostyyu i uvazheniem v epokhu innovatsiy
Korosteleva V.V.Journal paper
Russian Journal of Innovation Economics
Volume 16, Number 2 (April-June 2026)
