Vietnam.vn - Nền tảng quảng bá Việt Nam

Риск того, что ИИ начнет ядерную войну, — это не научная фантастика

(CLO) Ядерная война, инициированная ИИ, звучит как нечто из научно-фантастического фильма. Но многие ведущие мировые ученые и политики говорят, что это не так.

Công LuậnCông Luận23/03/2025

Опасность потери контроля над ИИ

Человечество, похоже, игнорирует призрак, маячащий на горизонте. Это призрак глобальной ядерной войны, вызванной искусственным интеллектом (ИИ). Генеральный секретарь ООН Антониу Гутерриш предупреждал об этом. Однако до сих пор ядерные державы не объединились для переговоров по этой катастрофической угрозе.

Опасность ядерной войны — это не улица с односторонним движением.

Стремительное развитие искусственного интеллекта (ИИ) создаёт риск вмешательства ИИ в процесс запуска ядерного оружия. Иллюстрация (фото)

Среди пяти крупнейших ядерных держав — США, России, Китая, Великобритании и Франции — уже давно существует неформальный консенсус относительно принципа «человеческого участия», что означает, что в каждой стране имеется система, обеспечивающая участие людей в принятии решений о запуске ядерного оружия.

Ни одна из пяти крупнейших держав не заявляет о внедрении ИИ в свои системы управления ядерными ракетами. Это правда, но вводит в заблуждение, считает доктор Сандип Васлекар, председатель Strategic Foresight Group, международной исследовательской организации в Мумбаи, Индия.

ИИ уже используется для обнаружения угроз и выбора целей. Системы на базе ИИ анализируют большие объёмы данных с датчиков, спутников и радаров в режиме реального времени, анализируя входящие ракетные атаки и предлагая варианты реагирования.

Затем оператор перепроверяет угрозу из разных источников и решает, следует ли перехватывать вражеские ракеты или наносить ответные удары.

«В настоящее время время реагирования операторов составляет 10–15 минут. К 2030 году оно сократится до 5–7 минут», — сказал Сандип Васлекар. «Хотя окончательные решения будут принимать люди, на них будет влиять предиктивная и предписывающая аналитика ИИ. ИИ может стать движущей силой решений о запусках уже в 2030-х годах».

Проблема в том, что ИИ может ошибаться. Алгоритмы обнаружения угроз могут сообщать о ракетном ударе, когда его нет. Это может быть связано с компьютерными ошибками, сетевыми вторжениями или факторами окружающей среды, которые искажают сигналы. Если операторы не смогут подтвердить ложные сигналы тревоги из других источников в течение двух-трёх минут, они могут спровоцировать ответные удары.

Очень маленькая ошибка, огромная катастрофа

Известно, что использование ИИ во многих гражданских функциях, таких как прогнозирование преступлений, распознавание лиц и онкологических заболеваний, имеет погрешность в 10%. В системах раннего оповещения о ядерном оружии погрешность может составлять около 5%, по словам Сандипа Васлекара.

По мере повышения точности алгоритмов распознавания изображений в течение следующего десятилетия эта погрешность может снизиться до 1–2%. Однако даже 1%-ная погрешность может привести к глобальной ядерной войне.

Кто рискует стать жертвой ядерной войны? Не эксперт по ядерной технике. Изображение 2

Решения о нанесении ядерного удара или ответном ударе могут быть приняты из-за ошибок ИИ. Фото: Институт современной войны

Риск может возрасти в ближайшие два-три года по мере появления новых вредоносных программ, способных обходить системы обнаружения угроз. Эти программы будут адаптироваться, чтобы избегать обнаружения, автоматически определять цели и автоматически атаковать их.

Во времена Холодной войны возникало несколько ситуаций, балансирующих на грани. В 1983 году советский спутник ошибочно засек пять ракет, запущенных Соединёнными Штатами. Станислав Петров, офицер российского командного центра Сепухов-15, пришёл к выводу, что это была ложная тревога, и не предупредил начальство, чтобы оно могло начать контратаку.

В 1995 году Оленегорская радиолокационная станция зафиксировала ракетную атаку у берегов Норвегии. Стратегические силы России были приведены в состояние повышенной готовности, а тогдашнему президенту России Борису Ельцину передали ядерный чемоданчик. Он заподозрил ошибку и не нажал кнопку. Оказалось, что это была научная ракета. Если бы для определения реакции в любой из этих ситуаций использовался ИИ, последствия могли бы быть катастрофическими.

Современные гиперзвуковые ракеты используют традиционную автоматику вместо искусственного интеллекта. Они могут развивать скорость от 5 до 25 Махов, избегая радиолокационного обнаружения и контролируя траекторию полёта. Сверхдержавы планируют оснастить гиперзвуковые ракеты искусственным интеллектом для мгновенного обнаружения и уничтожения движущихся целей, переложив принятие решений об уничтожении с человека на машину.

Также идёт гонка за разработку общего искусственного интеллекта, которая может привести к появлению моделей ИИ, работающих вне человеческого контроля. Когда это произойдёт, системы ИИ научатся совершенствоваться и воспроизводить себя, взяв на себя процессы принятия решений. Если такой ИИ будет интегрирован в системы поддержки принятия решений при разработке ядерного оружия, машины смогут развязывать разрушительные войны.

Время действовать

Столкнувшись с вышеперечисленными рисками, многие эксперты полагают, что человечеству необходимо всеобъемлющее соглашение между крупнейшими державами, чтобы минимизировать риск ядерной войны, выходящее за рамки повторения лозунга «люди в петле».

Это соглашение должно включать меры по обеспечению прозрачности, подотчетности и сотрудничества; международные стандарты тестирования и оценки; каналы кризисной связи; национальные надзорные советы; а также правила, запрещающие агрессивные модели ИИ, способные обходить операторов-людей.

Кто рискует стать жертвой ядерной войны? Не эксперт по ядерной технике. Изображение 3

Генеральный секретарь Антониу Гутерриш принимает участие в церемонии памяти жертв войны в Хиросиме, которая подверглась атомной бомбардировке в 1945 году. Фото: ООН

Геополитические сдвиги создают возможности для заключения такого пакта. Ведущие эксперты в области искусственного интеллекта из Китая и США, например, участвовали в ряде диалогов в формате «второго трека» по рискам, связанным с ИИ, что привело к совместному заявлению бывшего президента США Джо Байдена и председателя КНР Си Цзиньпина в ноябре прошлого года.

По словам доктора Сандипа Васлекара, миллиардер Илон Маск является убежденным сторонником спасения человечества от экзистенциальных рисков, которые несет ИИ, и Маск может призвать нынешнего президента США Дональда Трампа превратить совместное заявление Джо Байдена и Си Цзиньпина в договор.

По словам доктора Сандипа Васлекара, решение проблемы взаимодействия ИИ и ядерного оружия также требует участия России. До января этого года Россия отказывалась обсуждать какие-либо меры по снижению ядерных рисков, включая конвергенцию с ИИ, если только не будет поднят вопрос об Украине.

Поскольку президент Дональд Трамп ведет диалог с президентом России Владимиром Путиным с целью улучшения двусторонних отношений и прекращения войны на Украине, Россия теперь может быть открыта для переговоров.

В феврале этого года, после выступления вице-президента США Дж. Д. Вэнса на Парижском саммите по вопросам ИИ, Центр новой американской безопасности (CNAS) также опубликовал доклад под названием «Предотвращение конца света в сфере ИИ: соперничество США, Китая и России на стыке ядерного оружия и искусственного интеллекта».

В отчете определены наиболее существенные риски, связанные с взаимосвязью ИИ и ядерной энергетики, и содержится призыв к администрации США разработать комплексный набор механизмов снижения рисков и управления кризисами совместно с Китаем и Россией.

Ранее, в сентябре прошлого года, около 60 стран, включая США, приняли «план действий» по управлению ответственным использованием ИИ в военных целях на саммите «Ответственный ИИ в военных целях» (REAIM), состоявшемся в Сеуле (Южная Корея). Это была вторая конференция такого рода после прошлогодней в Гааге. Подобные инициативы показывают, что риск ядерной войны, развязанной ИИ, — это не научная фантастика.

Мир явно сталкивается со все более острой экзистенциальной проблемой, которая требует реальных действий со стороны ядерных держав для обеспечения того, чтобы «каждое решение о применении ядерного оружия принималось людьми, а не машинами или алгоритмами», как призвал Генеральный секретарь ООН Антониу Гутерриш.

Нгуен Кхань


Комментарий (0)

No data
No data
Волшебное зрелище на холме с перевернутыми чашами чая в Пху Тхо
Три острова в Центральном регионе сравнивают с Мальдивами, привлекая туристов летом.
Полюбуйтесь сверкающим прибрежным городом Куинён в Гиалай ночью.
Изображение террасных полей в Пху Тхо, пологих, ярких и прекрасных, как зеркала перед началом посевной.
Фабрика Z121 готова к финалу Международного фестиваля фейерверков
Известный журнал о путешествиях назвал пещеру Шондонг «самой великолепной на планете»
Таинственная пещера привлекает западных туристов, ее сравнивают с пещерой Фонгня в Тханьхоа.
Откройте для себя поэтическую красоту залива Винь-Хи
Как обрабатывается самый дорогой чай в Ханое, стоимостью более 10 миллионов донгов за кг?
Вкус речного региона

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт