Ризик втрати контролю над штучним інтелектом
Здається, людство ігнорує привид на горизонті: привид глобальної ядерної війни, спричиненої штучним інтелектом (ШІ). Генеральний секретар ООН Антоніу Гутерріш попереджав про це. Але досі ядерні держави не об'єдналися для переговорів щодо цієї катастрофічної загрози.
Швидкий розвиток штучного інтелекту (ШІ) створює ризик того, що ШІ може втрутитися в процес запуску ядерної зброї. Ілюстративне фото
Між п'ятьма найбільшими ядерними державами – США, Росією, Китаєм, Великою Британією та Францією – давно існує неформальний консенсус щодо принципу «людина в циклі», що означає, що кожна країна має систему, яка забезпечує участь людей у прийнятті рішення про запуск ядерної зброї.
Жодна з п'яти держав не каже, що вони розгорнули штучний інтелект у своїх системах керування ядерними запусками. Це правда, але оманлива думка доктора Сандіпа Васлекара, президента Strategic Foresight Group, міжнародної дослідницької організації в Мумбаї, Індія.
Штучний інтелект вже використовується для виявлення загроз та вибору цілей. Системи на базі штучного інтелекту аналізують великі обсяги даних з датчиків, супутників та радарів у режимі реального часу, аналізуючи вхідні ракетні атаки та пропонуючи варіанти реагування.
Потім оператор перевіряє загрозу з різних джерел і вирішує, чи перехоплювати ворожі ракети, чи завдавати ударів у відповідь.
«Наразі час реакції, доступний операторам-людям, становить від 10 до 15 хвилин. До 2030 року цей час скоротиться до 5-7 хвилин», – сказав Сандіп Васлекар. «Хоча люди прийматимуть остаточні рішення, на них впливатиме прогнозна та прескриптивна аналітика штучного інтелекту. Штучний інтелект може стати рушійною силою рішень про запуски вже у 2030-х роках».
Проблема полягає в тому, що штучний інтелект може помилятися. Алгоритми виявлення загроз можуть вказувати на ракетний удар, коли його немає. Це може бути пов'язано з комп'ютерними помилками, вторгненням у мережу або факторами навколишнього середовища, які приховують сигнали. Якщо оператори-люди не зможуть підтвердити хибні тривоги з інших джерел протягом двох-трьох хвилин, вони можуть спровокувати удари у відповідь.
Дуже маленька помилка, величезна катастрофа
Відомо, що використання штучного інтелекту в багатьох цивільних функціях, таких як прогнозування злочинів, розпізнавання облич та прогнозування раку, має похибку 10%. За словами Сандіпа Васлекара, у системах раннього ядерного попередження похибка може становити близько 5%.
Оскільки точність алгоритмів розпізнавання зображень покращуватиметься протягом наступного десятиліття, ця похибка може знизитися до 1-2%. Але навіть 1% похибка може розпочати глобальну ядерну війну.
Рішення про атаку або відповідні дії ядерною зброєю можуть бути викликані помилками штучного інтелекту. Фото: Інститут сучасної війни
Ризик може зрости протягом наступних двох-трьох років, оскільки з'являться нові шкідливі програми, здатні уникати систем виявлення загроз. Ці шкідливі програми адаптуватимуться, щоб уникнути виявлення, автоматично ідентифікувати цілі та атакувати їх.
Під час Холодної війни було кілька ситуацій «на межі» війни. У 1983 році радянський супутник помилково виявив п'ять ракет, запущених Сполученими Штатами. Станіслав Петров, офіцер російського командного центру «Сепухов-15», дійшов висновку, що це була хибна тривога, і не попередив своє начальство, щоб воно могло розпочати контратаку.
У 1995 році радіолокаційна станція Оленегорська виявила ракетну атаку біля узбережжя Норвегії. Стратегічні сили Росії були приведені в стан підвищеної готовності, а тодішньому президенту Борису Єльцину вручили ядерний портфель. Він запідозрив, що це була помилка, і не натиснув кнопку. Виявилося, що це була наукова ракета. Якби для визначення реакції в будь-якій із ситуацій використовувався штучний інтелект, результати могли б бути катастрофічними.
Гіперзвукові ракети сьогодні використовують звичайну автоматизацію замість штучного інтелекту. Вони можуть рухатися зі швидкістю від 5 до 25 Махів, уникаючи радіолокаційного виявлення та контролюючи траєкторії польоту. Наддержави планують вдосконалити гіперзвукові ракети за допомогою штучного інтелекту, щоб миттєво знаходити та знищувати рухомі цілі, перекладаючи рішення про знищення з людей на машини.
Також триває гонка за розробкою загального штучного інтелекту, що може призвести до моделей ШІ, які функціонуватимуть поза людським контролем. Коли це станеться, системи ШІ навчаться вдосконалюватися та відтворювати себе, переймаючи на себе процеси прийняття рішень. Якщо такий ШІ буде інтегровано в системи підтримки рішень щодо ядерної зброї, машини зможуть розпочинати руйнівні війни.
Час діяти
Зіткнувшись із вищезазначеними ризиками, багато експертів вважають, що людству потрібна всеохопна угода між великими державами, щоб мінімізувати ризик ядерної війни, виходячи за рамки повторення гасла «людство в курсі подій».
Ця угода повинна включати заходи щодо прозорості, підзвітності та співпраці; міжнародні стандарти тестування та оцінки; канали кризової комунікації; національні наглядові ради; та правила, що забороняють агресивні моделі штучного інтелекту, здатні обходити операторів-людей.
Генеральний секретар Антоніу Гутерріш відвідує церемонію пам'яті миру в Хіросімі, на яку в 1945 році було скинуто атомну бомбу. Фото: ООН
Геополітичні зрушення створюють можливості для такого пакту. Наприклад, провідні експерти зі штучного інтелекту з Китаю та США взяли участь у низці діалогів другого плану щодо ризиків, пов'язаних зі штучним інтелектом, що призвело до спільної заяви колишнього президента США Джо Байдена та президента Китаю Сі Цзіньпіна минулого листопада.
Мільярдер Ілон Маск є рішучим прихильником необхідності порятунку людства від екзистенційних ризиків, що виникають через штучний інтелект, і він може закликати нинішнього президента США Дональда Трампа перетворити спільну заяву Джо Байдена та Сі Цзіньпіна на договір, за словами доктора Сандіпа Васлекара.
За словами доктора Сандіпа Васлекара, виклик, пов'язаний зі штучним інтелектом та ядерною енергетикою, також вимагає участі Росії. До січня цього року Росія відмовлялася обговорювати будь-які заходи щодо зниження ядерних ризиків, включаючи конвергенцію зі штучним інтелектом, якщо не обговорювалося питання України.
Оскільки президент Дональд Трамп веде діалог з президентом Росії Володимиром Путіним щодо покращення двосторонніх відносин та припинення війни в Україні, Росія тепер може бути відкритою до переговорів.
У лютому цього року, після виступу віце-президента США Дж. Д. Венса на Паризькому саміті дій щодо штучного інтелекту, Центр нової американської безпеки (CNAS) також опублікував звіт під назвою «Запобігання судному дню штучного інтелекту: конкуренція США, Китаю та Росії на стику ядерної зброї та штучного інтелекту».
У звіті визначено найважливіші ризики, пов'язані зі зв'язком між штучним інтелектом та ядерною енергетикою, і міститься заклик до адміністрації США створити комплексний набір механізмів для пом'якшення ризиків та управління кризами з Китаєм та Росією.
Раніше, у вересні минулого року, близько 60 країн, включаючи США, ухвалили «план дій» щодо управління відповідальним використанням штучного інтелекту у військових справах на саміті з питань відповідального використання штучного інтелекту у військовій справі (REAIM), що відбувся в Сеулі, Південна Корея. Це була друга конференція такого роду після конференції, що відбулася в Гаазі минулого року. Ці дії показують, що ризик ядерної війни, ініційованої штучним інтелектом, не є науковою фантастикою.
Світ явно стикається з дедалі нагальнішою екзистенційною проблемою, яка вимагає реальних дій від ядерних держав, щоб забезпечити, щоб «кожне рішення про застосування ядерної зброї приймалося людьми, а не машинами чи алгоритмами», як закликав Генеральний секретар ООН Антоніу Гутерріш.
Нгуєн Кхань










Коментар (0)