Vietnam.vn - Nền tảng quảng bá Việt Nam

Риск того, что ИИ начнет ядерную войну, — это не научная фантастика

(CLO) Ядерная война, развязанная ИИ, звучит как сцена из научно-фантастического фильма. Но многие ведущие мировые учёные и политики утверждают, что это не так.

Công LuậnCông Luận23/03/2025

Риск потери контроля над ИИ

Человечество, похоже, игнорирует призрак, маячащий на горизонте: призрак глобальной ядерной войны, вызванной искусственным интеллектом (ИИ). Генеральный секретарь ООН Антониу Гутерриш предупреждал об этом. Однако до сих пор ядерные державы не объединились для переговоров по этой катастрофической угрозе.

Опасность ядерной войны — не миф.

Стремительное развитие искусственного интеллекта (ИИ) создаёт риск вмешательства ИИ в процесс запуска ядерного оружия. Иллюстрация. Фото.

Среди пяти крупнейших ядерных держав — США, России, Китая, Великобритании и Франции — уже давно существует неформальный консенсус относительно принципа «участия человека в процессе принятия решений», что означает, что в каждой стране имеется система, обеспечивающая участие людей в принятии решений о запуске ядерного оружия.

Ни одна из пяти держав не заявляет о внедрении ИИ в свои системы управления ядерными ракетами. Это правда, но вводит в заблуждение, считает доктор Сандип Васлекар, президент Strategic Foresight Group, международной исследовательской организации в Мумбаи, Индия.

ИИ уже используется для обнаружения угроз и выбора целей. Системы на базе ИИ анализируют большие объёмы данных с датчиков, спутников и радаров в режиме реального времени, анализируя входящие ракетные атаки и предлагая варианты реагирования.

Затем оператор перепроверяет угрозу из разных источников и решает, следует ли перехватывать вражеские ракеты или наносить ответные удары.

«В настоящее время время реакции человека-оператора составляет 10–15 минут. К 2030 году оно сократится до 5–7 минут», — сказал Сандип Васлекар. «Хотя окончательные решения будут принимать люди, на них будет влиять предиктивная и предписывающая аналитика ИИ. ИИ может стать движущей силой решений о запусках уже в 2030-х годах».

Проблема в том, что ИИ может ошибаться. Алгоритмы обнаружения угроз могут сообщать о ракетном ударе, когда его нет. Это может быть связано с компьютерными ошибками, сетевыми вторжениями или факторами окружающей среды, которые искажают сигналы. Если операторы не смогут подтвердить ложные сигналы тревоги из других источников в течение двух-трёх минут, они могут спровоцировать ответные удары.

Очень маленькая ошибка, огромная катастрофа

Известно, что использование ИИ во многих гражданских функциях, таких как прогнозирование преступлений, распознавание лиц и прогнозирование рака, имеет погрешность в 10%. В системах раннего оповещения о ядерном нападении погрешность может составлять около 5%, по словам Сандипа Васлекара.

По мере повышения точности алгоритмов распознавания изображений в течение следующего десятилетия эта погрешность может снизиться до 1–2%. Однако даже 1%-ная погрешность может привести к глобальной ядерной войне.

Опасность ядерной войны — не миф.

Решения об атаке или ответном ударе с применением ядерного оружия могут быть приняты из-за ошибок ИИ. Фото: Институт современной войны

Риск может возрасти в ближайшие два-три года по мере появления новых вредоносных программ, способных обходить системы обнаружения угроз. Такие программы будут адаптироваться, чтобы избегать обнаружения, автоматически определять цели и атаковать их.

Во времена Холодной войны возникало несколько ситуаций, балансирующих на грани. В 1983 году советский спутник ошибочно засек пять ракет, запущенных Соединёнными Штатами. Станислав Петров, офицер российского командного центра Сепухов-15, пришёл к выводу, что это была ложная тревога, и не предупредил начальство, чтобы оно могло начать контратаку.

В 1995 году Оленегорская радиолокационная станция зафиксировала ракетную атаку у берегов Норвегии. Стратегические силы России были приведены в состояние повышенной готовности, а тогдашнему президенту Борису Ельцину передали ядерный чемоданчик. Он заподозрил ошибку и не нажал кнопку. Оказалось, что это была научная ракета. Если бы для определения реакции в любой из этих ситуаций использовался ИИ, последствия могли бы быть катастрофическими.

Современные гиперзвуковые ракеты используют традиционную автоматику вместо искусственного интеллекта. Они могут развивать скорость от 5 до 25 Махов, избегая радиолокационного обнаружения и контролируя траекторию полёта. Сверхдержавы планируют оснастить гиперзвуковые ракеты искусственным интеллектом, чтобы мгновенно обнаруживать и уничтожать движущиеся цели, перекладывая принятие решений об уничтожении с людей на машины.

Также идёт гонка за разработку общего искусственного интеллекта, которая может привести к появлению моделей ИИ, работающих вне человеческого контроля. Когда это произойдёт, системы ИИ научатся совершенствоваться и воспроизводить себя, взяв на себя процессы принятия решений. Если такой ИИ будет интегрирован в системы поддержки принятия решений при разработке ядерного оружия, машины смогут развязывать разрушительные войны.

Время действовать

Столкнувшись с вышеперечисленными рисками, многие эксперты полагают, что человечеству необходимо всеобъемлющее соглашение между крупнейшими державами, чтобы минимизировать риск ядерной войны, выходящее за рамки повторения лозунга «люди в петле».

Это соглашение должно включать меры по обеспечению прозрачности, подотчетности и сотрудничества; международные стандарты тестирования и оценки; каналы кризисной связи; национальные надзорные советы; а также правила, запрещающие агрессивные модели ИИ, способные обходить операторов-людей.

Опасность ядерной войны не является экспертом по 3D-изображениям

Генеральный секретарь Антониу Гутерриш принимает участие в церемонии памяти жертв войны в Хиросиме, которая подверглась атомной бомбардировке в 1945 году. Фото: ООН

Геополитические сдвиги создают возможности для заключения такого пакта. Ведущие эксперты в области искусственного интеллекта из Китая и США, например, участвовали в ряде диалогов в формате «второго трека» по рискам, связанным с ИИ, что привело к совместному заявлению бывшего президента США Джо Байдена и председателя КНР Си Цзиньпина в ноябре прошлого года.

По словам доктора Сандипа Васлекара, миллиардер Илон Маск является убежденным сторонником необходимости спасения человечества от экзистенциальных рисков, создаваемых искусственным интеллектом, и он может призвать нынешнего президента США Дональда Трампа превратить совместное заявление Джо Байдена и Си Цзиньпина в договор.

По словам доктора Сандипа Васлекара, решение проблемы ИИ-ядерного оружия также требует участия России. До января этого года Россия отказывалась обсуждать какие-либо меры по снижению ядерных рисков, включая конвергенцию с ИИ, если только речь не шла об Украине.

Поскольку президент Дональд Трамп ведет диалог с президентом России Владимиром Путиным с целью улучшения двусторонних отношений и прекращения войны на Украине, Россия теперь может быть открыта для переговоров.

В феврале этого года, после выступления вице-президента США Дж. Д. Вэнса на Парижском саммите по вопросам искусственного интеллекта, Центр новой американской безопасности (CNAS) также опубликовал доклад под названием «Предотвращение конца света от ИИ: соперничество США, Китая и России на стыке ядерного оружия и искусственного интеллекта».

В отчете определены наиболее существенные риски, связанные с взаимосвязью ИИ и ядерной энергетики, и содержится призыв к администрации США разработать комплексный набор механизмов снижения рисков и управления кризисами совместно с Китаем и Россией.

Ранее, в сентябре прошлого года, около 60 стран, включая США, приняли «план действий» по управлению ответственным использованием ИИ в военных целях на саммите «Ответственный ИИ в военных целях» (REAIM), прошедшем в Сеуле (Южная Корея). Это была вторая конференция такого рода после прошлогодней конференции в Гааге. Эти события показывают, что риск ядерной войны, развязанной ИИ, — это не научная фантастика.

Мир явно сталкивается со все более острой экзистенциальной проблемой, которая требует реальных действий со стороны ядерных держав для обеспечения того, чтобы «каждое решение о применении ядерного оружия принималось людьми, а не машинами или алгоритмами», как призвал Генеральный секретарь ООН Антониу Гутерриш.

Нгуен Кхань


Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же категория

Собор Парижской Богоматери в Хошимине ярко освещен в честь Рождества 2025 года
Девушки из Ханоя красиво «наряжаются» к Рождеству
Жители деревни хризантем Тет в Джиа Лай, ожившей после шторма и наводнения, надеются, что никаких отключений электроэнергии не произойдет, и растения спасутся.
Столица желтого абрикоса в Центральном регионе понесла тяжелые потери после двойного стихийного бедствия

Тот же автор

Наследство

Фигура

Бизнес

В кофейне Далата на 300% увеличилось количество клиентов, так как владелец сыграл роль в «фильме о боевых искусствах»

Текущие события

Политическая система

Местный

Продукт

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC