О книге Д.В. Муна, В.В. Попеты «Грядущее: риски, угрозы, вызовы», Книга 3 из цикла «Предупреждение техногенных катастроф» (Москва – Берлин, 2023)

Цветкова В.А.

Статья в журнале

Экономика, предпринимательство и право (РИНЦ, ВАК)
опубликовать статью | оформить подписку

Том 13, Номер 8 (Август 2023)

Цитировать:
Цветкова В.А. О книге Д.В. Муна, В.В. Попеты «Грядущее: риски, угрозы, вызовы», Книга 3 из цикла «Предупреждение техногенных катастроф» (Москва – Берлин, 2023) // Экономика, предпринимательство и право. – 2023. – Том 13. – № 8. – С. 3243-3252. – doi: 10.18334/epp.13.8.118962.

Эта статья проиндексирована РИНЦ, см. https://elibrary.ru/item.asp?id=54604831



«Хотя прогресс открывает перед нами удивительные

возможности… Я вижу свою задачу в привлечении

внимания к связанными с ним опасными угрозами.»

Юваль Ной Харари. 21 урок для 21 века. //

Издательство «Синдбад». – 2019. – С. 412

Задумка авторов показать миру, что такое техногенные и природные катастрофы, чем они грозят человечеству, находит воплощение в трех последовательных книгах из цикла «Предупреждение техногенных катастроф»: 1. Д.В. Мун Д.В., Попета В.В., Попета А.В., Смолков П.Е. От «Титаника» до «Фукусимы»: алгоритмы техногенных катастроф /. - Изд. 2-е, доп. и перераб. - Калининград Москва: Библио-Глобус, 2016. - 335 с.: ил. - (Библиотека безопасности жизнедеятельности). - ISBN 978-5-906830-67-8; 2. Управление рисками человеческого фактора – находится в стадии подготовки. 3. Грядущее: риски, угрозы, вызовы» // Москва, «Директ-медиа». – 2023. - 200 с. Ранее авторы предложили нам интереснейшие исследования из области наиболее крупных катастроф в работе: Мун Д.В., Попета В.В., Смолков П.Е. «От «Титаника» до «Зимней вишни». Алгоритмы грядущих катастроф». // Москва, «Директ-медиа». – 2018. - 352 с.. Такая последовательность и приверженность направлению исследований позволяет авторам рассказать о наиболее значимых катастрофах прошлого и настоящего, проанализировать причины, которые привели к столь серьезным ударам и остановиться на рисках, угрозах и вызовах, с которыми может столкнуться человечество в ближайшие периоды времени. Третья книга – это книга – ПРЕДУПРЕЖДЕНИЕ, своего рода послание о возможных последствиях нашего неуемного желания на пути к новому, к прогрессу и плохой проработки возможных последствий постоянных нововведений в нашу повседневную жизнь. Не зря в предисловии есть упоминание «Библиотека безопасности жизнедеятельности Международного профессионального сообщества www.Risk.today».

Первая книга из задуманной авторами серии рассмотрена в статье Цветковой В.А. Рецензия на книгу Д.В. Муна, В.В. Попеты «Предупреждение техногенных катастроф» В 3 кн. Книга 1: Уроки истории (Москва, Берлин 2022) // Вопросы инновационной экономики, 2022. - Т. 12, - № 1. DOI: 10.18334/vinec.12.1.114251. // URL: https://1economic.ru/lib/114251. Авторы сознательно нарушили задуманную последовательность и подготовили поле первой сразу третью книгу: «Грядущее: риски, угрозы, вызовы», мотивируя это тем, «что будущее уже наступило», оно не в далекой перспективе, а уже «здесь и сейчас». С этим тезисом авторов нельзя не согласиться.

Более основательно остановимся на книге 3 – книге Предупреждении. Поставленная авторами целевая задача формирования рискоориентированного мышления у широкой аудитории в условиях стремительного развития технологий, усложнения конструкций технических средств, проникновения сложных программных решений в обыденную жизнь, порой эти решения находятся на пограничном уровне с искусственным интеллектом, использованием ядерной энергии как в мирных, так и милитаристских целях, повышением активности в зоне природных катастроф в данной книге особенно остро.

Богатый материал книги очень хорошо структурирован. Четыре крупных раздела раскрывают состояние и тенденции развития и рисковых ситуаций. Авторы справедливо делают акцент на «человеческом факторе». Сразу возникает вопрос: а может ли Человек отслеживать все сбои в сложнейших механизмах океанских лайнеров, космических кораблей, сегодняшних реактивных самолетов и т.д.? Вопрос есть, но ответа пока нет, поскольку никакое, даже самое наилучшее, образование, сверхвысокие способности современного Человека не предполагают того уровня знаний, на котором он владел бы в совершенстве математикой, механикой, физикой, химией, биологией, разбирался на самом высоком уровне в поведении океанических волн, ядерных процессов, «шуток» природы. Безусловно, «человеческий фактор» направлен, в первую очередь, на созидание нового, а не на разрушение достигнутого, на предотвращение катастроф как рукотворного, так и природного характера. Последовательно прослеживается линия прогресса от появления письменности до полетов в космос и первых попыток реализовать мечту об «искусственном интеллекте» (ИИ).

Первый раздел книги, пожалуй, наиболее важный в контексте данного изложения: «От спама до фейка: неучтенные риски четвертой ИТ-революции» включают глубокие исследования последствий четырех информационных революций (ИР). Первая – это прорыв, обусловленный изобретением письменности, что принципиально изменило возможность накапливать и передавать данные на внешних носителях в социальной среде. Реперной точкой начала второй ИР стало изобретение Гутенбергом (1450 г.) печатного станка, книгопечатания, что изменило общество, создав дополнительные возможности приобщения к культурным ценностям сразу больших слоев населения, разрушило монополию узкого круга избранных «ученых» людей на знания. Третья ИР обусловлена изменением всей системы коммуникации благодаря изобретениям радио, телеграфа, телефона, и телевидения. Информация, от точки ее производства, теперь могла практически мгновенно попадать к миллионам потенциальных потребителей. Началась эра СМИ – вертикальных медиа, способных аккумулировать и транслировать в огромных объемах не только текстовую, но звуковую и аудио-визуальную информацию аудиториям людей, находящихся на больших расстояниях как друг от друга так и от источника передачи информации. Четвертая ИР, которую принято называть революцией информационных технологий (ИТ), началась с изобретения компьютеров, а настоящий прорыв произошел благодаря изобретению интернета - всемирной информационной сети. Первое, что произошло после начала массового подключения пользователей ко всемирной сети – это многократный рост объемов информации, получивший название «информационный взрыв». Информационный шум, или спам сегодня - главная помеха умственной деятельности современного человека - неуправляемое распространение недостоверной и непроверяемой информации, в том числе фейковых новостей. Авторы затрагивают и тенденции развития ИИ, первых шагах в этом направлении, связанных скорее с потенциалом программных средств, квалификацией и фантазией программистов (IT – специалистов), чем с понятием ИИ. Кстати четкого определения этого понятия пока не сформировалось. Мы еще плохо понимаем, что есть ИИ, но поисковые работы в этом направлении ведутся активно. Можно предположить, что это начало пятой информационной революции.

Интересен акцент на кибертерроризме и хакерских работах. Эти направления развиваются стремительно и включаются как в гражданские, так и в милитаристские направления жизни современного общества. Авторы рассматривают кибертерроризм как глобальный вызов общественной безопасности.

Крайне важно направление исследования, связанное с рисками, вызванными информационными перегрузками, как острейшим вызовом для человеческой психики. Возможно, именно информационные перегрузки порой ведут к катастрофам, к странному поведению детей и подростков. Примером тому может служить работа авиационных диспетчеров. Важен затронутый авторами момент, связанный с гонкой за количеством статей, не качеством, а именно, количеством, за различными индексами библиометрических оценок, что ведет к девальвации научной информации, потере ценной информации в море никому не нужных статей, написанных исключительно в угоду показателей «научной результативности». Сегодня этот подход доминирует в умах управленцев: чем больше статей придумал тот или иной борзописец, тем он наиболее значим и достоин карьерных и финансовых поощрений. При этом об отрицательных показателях в исследованиях не желательно даже упоминать. А ведь это одна из важнейших позиций в научных направлениях, прокладывающих путь к реальному результату, в современных терминах, это «дорожная карта» развития научного направления. Именно такой подход не позволяет вести нормальные научные исследования, результатом которых и являются научные публикации. Эта позиции порождает серьезные риски непосредственно в направлениях научной работы и порождает дополнительные риски в тенденциях технического прогресса и его поддержки на государственном уровне.

Тревожным симптомом стало повсеместное увлечение гаджетами, что привело к снижению интеллекта у современной молодежи, порой к потере умения не только излагать свои мысли, но и к банальному неумению писать «от руки». Использование эмодзи позволяет, общаясь при помощи примитивных символов, упросить и увеличить скорость обмена сообщениями, а также, в некоторой степени, снять языковые барьеры… Авторы задают вопрос: что нас ждет завтра, не приведет ли нас коммуникация при помощи примитивных изображений обратно в каменный век? Ведь каменный век закончился не потому, что закончились камни. Тревожно, что новое поколение порой живет не в реальном мире, а в «виртуальном», в котором пытается построить некий свой образ жизни, что приводит к нервным расстройствам, конфликту с обществом, в первую очередь, с родителями, подрывая в конечном итоге устойчивость семейной модели.

Интересны зарисовки на тему развивающегося Искусственного интеллекта (ИИ). В становлении этого направления сразу видны возможные риски и опасности. Еще в 2015 г. Илон Маск назвал искусственный интеллект «созданным человеком демоном» и пожертвовал значительную сумму на исследования по контролю над ИИ. Через несколько лет он заявил: «Я продолжаю бить тревогу, но пока люди сами не увидят роботов, которые ходят по улицам и убивают людей, они не узнают, как реагировать на искусственный интеллект». Он назвал искусственный интеллект «наибольшей угрозой, с которой сталкивалась цивилизация», и отметил, что человечеству надо быть предельно осторожным с технологией, которая «потенциально более опасна, чем ядерное оружие». По его словам, если вовремя не вмешаться в процесс развития этих систем, то будет слишком поздно [1]. Авторы иллюстрируют использование отдельных направлений применения ИИ на современном уровне, как правило достаточно безобидного, направленного на улучшении жизни социума. А вот в отношении рисков мы пока довольствуемся фантастикой, которая очень быстро превращается в реальность. Восстание роботов против людей под руководством ИИ многократно описано в литературных и кинематографических произведениях. Основной фабулой большинства данных произведений является идея о неотвратимости противостояния «машин» и людей и о грядущей безоговорочной победе роботов над создавшими их людьми. Пожалуй, фантастические события, изложенные в произведениях Айзека Азимова «Я робот» [2] и Артура Кларка в романе «Космическая Одиссея», могут стать реальностью. Обратим внимание на эпизод с неповиновением компьютера в романе А. Кларка, где человеческий разум все-таки оказался выше ИИ компьютера. В этом направлении уже надо начинать искать решения, к чему, собственно, и призывают авторы настоящей книги. Но главные проблемы, связанные с тотальной цифровизацией мира, по их мнению, еще впереди.

Обратим внимание на упоминание авторами состояния знаменитых «Часов Судного дня» (англ. Doomsday Clock – проект, начатый в 1947 году в Чикаго учеными, создавшими первый в мире атомный реактор и атомную бомбу), которые 23 января 2020 года были передвинуты в самое близкое к полуночи положение за всю их историю. А вот 24 января 2023 г. стрелки часов еще ближе были передвинуты к полуночи. До момента, когда часы пробьют «полночь», символизирующую собой уничтожение жизни на планете, время исчисляется в секундах [3]. Это печальный рекорд нашего времени. Экспертная комиссия по переводу «Часов Судного дня», в составе которой 18 Нобелевских лауреатов, обосновывая свое решение, заключает, что сегодня мировые лидеры все менее способны противостоять все более вероятным угрозам ядерной войны, в том числе, из-за нарастающих информационных войн в киберпространстве, роста числа фейковых новостей и спланированных кампаний по дезинформации в интернете.

Во второй части «Люди VS машины: угрозы, риски и вызовы Индустрии 4.0» авторы акцентируют внимание на направлениях, которые наиболее близки сегодня к исследованиям в области ИИ, по крайней мере, в приближении сегодняшнего периода времени. Авторы отмечают, что «Четвёртая промышленная революция (англ. The Fourth Industrial Revolution) – будущее массовое внедрение киберфизических систем в производство (индустрия 4.0), в результате чего изменения охватят самые разные стороны жизни: рынок труда, жизненную среду, политические системы, технологический уклад, и даже человеческую идентичность. Индустрия 4.0 несёт в себе риски повышения нестабильности и возможного коллапса мировой системы». В повседневной жизни мы привыкли к тому, что по интернету совершаем покупки, используем машинные переводчики с одного языка на другой, специальные роботы помогают убирать наше жилище, участвуют в проведении хирургических операций, управление лайнерами осуществляет автопилот, в Лондонском метро едут беспилотные поезда, беспилотные автомобили уже колесят по дорогам. Многому полезному мы обязаны ИИ. Но авторы четко придерживаются концепции, заявленной в настоящей книге, показать риски в дальнейшем развитии ИИ. Авторы приводят предупреждение известного физика Стивена Хокинга, сделанное им еще в 2014 г.: «Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисковКогда искусственный интеллект начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, это будут вещи, недоступные нашему пониманию…, если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект от того, можно ли будет им управлять вообще» [4].

Отличительной особенностью ИИ является способность к обучению. Главная задача обучения – научить мыслить, а не просто запоминать. Каждый процесс обучения как у человека, так и у ИИ, уникален, неповторим, и непредсказуем. Авторы отмечают, что в какой-то момент из-за программного сбоя, или нечеткого восприятия реальности, ИИ, обладающий сознанием и свободой воли может спровоцировать обмен ударами между Россией и США – ядерными сверхдержавами и … начнется война на полное уничтожение человечества. Таким образом, риски растущего Искусственного интеллекта становятся все более ощутимыми и прогнозируемыми, что требует особого внимания к соответствующим разработкам в части безопасности. «Ящик Пандоры открылся» – предупреждают авторы. Важно, что в книге рассмотрены как прогрессивное, нужное для развития общества сегодняшнего дня, так и те слабые звенья, где «что-то пошло не так». «Знания – это сила. Знания, помноженные на технологии – есть власть. Именно поэтому многие люди, одержимые жаждой власти, охотятся за знаниями и технологиями. И когда, рано или поздно, открытые учеными, инженерами, и другими естествоиспытателями теории и технологии становится достоянием одержимых властью людей – тогда жди беды. Вместо улыбок и эдемских садов будут бесконечные войны, разруха и страх. Именно об этом и предупреждал современников, а также нас, потомков, великий Герберт Уэллс».

Третий раздет книги «Люди вне закона: перспективы и жертвы беспилотного транспорта» направлен на исследование рисков стремительно развивающегося направления гражданского беспилотного транспорта. Это направление развивается в разных отраслях, включая автомобилестроение, авиацию, вождение поездов в метро и на железных дорогах. Именно в этом секторе мы наблюдаем постоянные автомобильные (беспилотные такси) и авиакатастрофы, сбои на железнодорожном транспорте и т.п. Авторы привели весьма показательные примеры, которые подчеркивают, что именно здесь кроются серьезные угрозы и риски, в значительной степени обусловленные человеческим фактором. Это и разработки компании Tesla в зоне беспилотного управления автомобильным транспортом, при этом предупреждающих о том, что «водитель при езде на автопилоте должен быть готовым в любой момент вмешаться. Руки нужно непрерывно держать на руле, иначе система подаст звуковой сигнал и постепенно остановит электромобиль» (стр.85 настоящей книги). Это и риски в авиации, когда мы стали очень часто сталкиваться с авиакатастрофами, где присутствуют и технические недоработки, и человеческий фактор, и терроризм. Еще пару десятков лет назад пилотов воздушной авиации учили летать на самолетах, в которых ни о каком автопилоте и речи не шло. Они должны были налетать определенное количество часов в реальных условиях управления машиной. Сегодня подготовка ведется на тренажерах с высоким уровнем реалистичности (Full Flight Simulator), реальных навыков полета будущие летчики не получают, около 95% времени полета – это заслуга автопилота, однако часы засчитываются летчику. Такой режим хорошо описан в романе Артура Хейли «Аэропорт» [5], включая ситуацию, когда опыт летчиков оказался превалирующим и спас от реальной катастрофы. Однако есть реальные примеры, когда робот победил человека, что привело к крушение рейса JT-610 через 11 минут после взлёта из аэропорта Джакарты, ровно столько времени члены экипажа смогли противостоять беспощадной «системе улучшения характеристик маневрирования»… – этот пример описан авторами.

Действительно, разработка и включение в практику новшеств часто приводит к жертвам на этапах испытаний. Безусловно, автопилоты имеют свои преимущества перед «человеческими слабостями», но пока все-таки доминирует человеческий интеллект и первостепенной задачей остаются функция обучения, подготовки соответствующих специалистов. Видимо не зря, одним из основных критериев ИИ является способность роботов к самообучению. Но и здесь скрыты риски и тревоги в связи с развитием технологий ИИ.

Четвертый раздел книги посвящен природным катастрофам. Рассмотрены и риски глобального природного потепления, последствия и причины пожаров, цунами и волны-убийцы. При этом дается достаточно полная и близкая к реальности картина последствий этих природных катастроф, а также исследовано влияние человеческого фактора истории ряда крупных катастроф. В природных катастрофах, таких как ландшафтно-лесные пожары, роль человеческого фактора велика, поскольку в числе причин можно указать неконтролируемое сжигание людьми травы, мусора, проведение пикников, разбрасывание осколков стекла, даже непогашенная сигарета в сухой период может привести к пожару с трагическими последствиями.

Интересен материал, касающийся «волн-убийц», малоизвестный широким массам населения, в том числе и тем, кто предпочитает отдых на морском или океаническом побережье. Под данным названием (в английском языке из еще называют rogue wave — волна-разбойник, или freak wave – чертова/бешеная/чокнутая волна; у французов можно встретить термин onde scélérate — волна-злодейка, galéjade — волна-небылица, вымысел ) подразумеваются огромные – высотой от 20 и более метров – одиночные волны, возникающие не во время ураганного ветра и сильного шторма, а даже при отсутствии волнения на море. Волны-убийцы не являются следствием каких-то масштабных геофизических событий, вроде землетрясений, извержений вулканов, циклонов, сопровождающихся ураганными ветрами, а возникают, на первый взгляд, абсолютно внезапно. Специалисты и ученые, несмотря на имеющие место факты, не считали волны-убийцы достойным внимания науки объектом. Только после того, как 1 января 1995 г. нефтегазовая буровая платформа «Дропнер» компании Statoil (Норвегия), расположенная в акватории Северного моря, подверглась удару одиночной волны экстремальной высоты в 25,6 метров (84 футов). На этот раз «чокнутая волна» была зафиксирована лазерным волнографом, который был установлен на платформе. Разрушения, нанесенные волной, также не оставляли сомнений в правильности измерений, осуществленных прибором. Наличие множества фактов привело к официальному признанию существования «волн-убийц» и началу их научного исследования.

Важный и актуальный аспект исследования направлен на привлечение внимания к повышению вирусной активности в мире. Причинами могут быть как результаты биологических разработок в лабораториях разных стран, так и тающие могильники скота, в том числе с сибирской язвой, как результат глобального потепления, и следы гриппа «испанка», появившиеся после таяния снега на Аляске, неизвестные науке вирусы, обнаруженные при сходе ледников в Тибете, список природных источников может быть весьма длинным. Однако риски этих процессов прогнозируемы и весьма неутешительны, что подтвердила затронувшая практически все население Земли пандемия 2019-2022 гг., которая пока еще не окончательно затихла.

Важно, что авторы затронули многие аспекты проблемы природных катастроф применительно к России. Глобальное потепление на территории нашей страны более чем в 2.5 раза выше скорости роста глобальной средней температуры в мире. Так, для периода 1976-2021 гг. она составила плюс 0.49 градуса только за последнее десятилетие. Авторы, ссылаясь на Ежегодный доклад МЧС 2021 г., отмечают, что в России наблюдается рост всех видов чрезвычайных ситуаций, при этом причиной большинства природных чрезвычайных ситуаций, произошедших в стране в 2021 году, стали происходящие изменения климата, и прогнозы на ближайшее будущее неблагоприятны. Авторы показали риски изменений климата для России, что уже «здесь и сейчас» позволяет разработать меры предосторожности. Вместе с тем, по сравнению с другими странами, главным преимуществом России в части эффективной адаптации к климатическим изменениям являются самая большая в мире территория и самый большой в мире запас пресной воды. Именно это преимущество оставляет за Россией возможности для осуществления тактического маневра в части переселения или расселения населения, а также переноса критических объектов инфраструктуры с территорий, которые подвергаются непрерывному или циклично повторяющемуся воздействию неблагоприятных климатических явлений, в более благополучные районы.

Заключение.

Предложенная книга – это не только и не столько желание авторов ознакомить читателей с наиболее ощутимыми человечеством катастрофами. Это научное исследование, направленное на оценку последствий катастроф разного типа и возможностей их предотвращения и минимизации рисков. Это книга – ПРЕДУПРЕЖДЕНИЕ нам и последующим поколениям о том, что новые технологии – это не только «прелести» повседневной жизни, но и серьезные риски. Авторы вывели условный алгоритм формирования техногенных катастроф, включающий ряд стадий от момента создания объекта до катастрофы и поведения людей/персонала в критический период. И это значимый вклад в теорию понимания рисков техногенных и природных катастроф. К сожалению, даже участников катастроф, история учит слабо. Здесь уместно напомнить эпизод, приведенный в книге, из истории катастрофы планетарного масштаба на АЭС «Факусима» в Японии – ядерная катастрофа максимального, седьмого уровня по шкале INES [6] на АЭС Фукусима 1. Катастрофа «Made in Japan» (англ. Сделано в Японии), как ее называют сами японцы. Уже после всего произошедшего с АЭС Фукусима 1, ответственный за безопасность эксплуатации вице-президент TEPCO Сакаэ Муто изрек: «…я посчитал, что реализация мероприятий по защите от стихийных бедствий не требует спешки, так как такие катастрофы происходят реже, чем раз в сто лет. Эксплуатация реактора длится меньше» [7]. Похоже, нас призывают ждать еще сто лет, а если «гром грянет» Завтра!? Глава парламентской комиссии Киеси Курокава при обнародовании результатов расследования открыто заявил: «Нужно признать, и это особенно болезненно, что эта катастрофа „сделано в Японии“. Глубинные причины аварии происходят из самой японской культуры: нашего рефлекторного послушания, нашего нежелания сомневаться в руководстве, нашей приверженности «следованию заданной программе», нашего группизма и нашей замкнутости» [8]. Парламентская комиссия прямо назвала катастрофу «рукотворной» (англ. Man-made disaster). Таким образом и здесь «человеческий фактор» стал доминирующим.

Обширный фактический материал отлично систематизирован и структурирован, логика изложения делает его доступным для понимания как школьниками, студентами так и научными специалистами. Авторы сумели изложить довольно сложный и многоаспектный материал удивительно доступным и четким русским языком, не прибегая к англицизмам, сохранив при этом и научность изложения и увлекательность чтения.

Эта серия из нескольких книг, пока трех, должна стать не только познавательным чтением для широкой публики, но, что более важно, должна стать обязательным разделом в образовательных курсах университетов, особенно технической направленности. В школьных курсах необходимо показать не только преимущества атомной энергетики или ИИ, но обратить внимание на сопутствующие прогрессу риски. Эта книга настраивает на будущее, призывает растущих разработчиков новых технологий учитывать и прогнозировать как позитивные качества новшеств, но и возможные последствия, если где-то, что-то «пойдет не так».

Ждем вторую книгу из заявленной серии.

Источники:

1. Илон Маск. Человечеству надо быть осторожным… https://www.forbes.ru/newsroom/milliardery/405911-mask-nazval-samyy-opasnyy-dlya-chelovechestva-iskusstvennyy-intellekt (дата обращения 12.04.2021)

2. Азимов А. Я робот. - Москва: Издательство ЭКСМО. – 1950. – с. 39. (Хоровод с.22-33) ISBN 978-5-04-100014-1

3. Часы Судного дня. // URL: http://ren.tv>longred-chasy-sudnogo-dnia (дата обращения: 28 января 2023)

4. Стивен Хокинг. «…достаточно ли серьезно мы относимся к ИИ?» Independent 01 May 2014. URL: https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence-but-are-we-taking-ai-seriously-enough-9313474.html (дата обращения 11.11.2022 г).

5. Хейли Артур. Аэропорт : [роман; пер. с англ.] / Артур Хецйлди. – Москва. – Издательство АСТ. – 2015. – 605 с. ISBN 978-5-17-086144-6.

6. Международная шкала ядерных событий (англ. INES, сокр. International Nuclear Event Scale) разработана Международным агентством по атомной энергии для унифицированной оценки чрезвычайных ситуаций на объектах гражданской атомной промышленности.

7. The Fukushima Daiichi Accident : [англ.] International Atomic Energy Agency Report — Vienna, 2015, Vol. 2.

8. The official report of The Fukushima Nuclear Accident Independent Investigation Commission. Executive summary / The National Diet of Japan. – 2012, р. 9.

О рецензенте: Цветкова Валентина Алексеевна – доктор технических наук, профессор, академик, главный научный сотрудник / Российская академия Естествознания (РАЕ), Библиотека по естественным наукам Российской академии наук (БЕН РАН)


Страница обновлена: 14.08.2024 в 10:25:29