Народно-освободительная армия Китая (НОАК) недавно предупредила, что искусственный интеллект (ИИ) не сможет заменить людей в принятии решений на поле боя.
Окончательное решение принимает командир-человек, чтобы избежать ошибок, возникающих из-за природы искусственного интеллекта как «черного ящика». (Источник: Shutterstock) |
«ИИ должен работать в тандеме с лицами, принимающими решения, чтобы оптимизировать эффективность командования, дополняя, а не заменяя людей», — говорится в статье, опубликованной в газете People's Liberation Army Daily 31 декабря 2024 года.
В статье говорится, что ИИ может использоваться для расширения возможностей человека — посредством анализа данных, моделирования или планирования, — но не может заменить наши роли.
«По мере развития ИИ он остаётся инструментом, управляемым человеческим суждением, что обеспечивает подотчётность. Креативность и стратегическая адаптивность остаются главными приоритетами в принятии военных решений», — говорится в статье.
Согласно статье, человеческая самостоятельность и креативность являются незаменимыми факторами на поле боя. В то время как люди, выполняющие командные функции, могут динамично реагировать на ситуацию и использовать слабости противника, ИИ действует в рамках заранее определённых алгоритмических ограничений, и реакциям технологий часто не хватает оригинальности.
НОАК предложила модель, в которой «люди планируют, а ИИ исполняет», где технологии используются для реализации стратегий и тактик, разработанных командирами, при сохранении элемента человеческого контроля.
Однако «окончательное решение принимает командир-человек, чтобы исключить ошибки, возникающие из-за природы искусственного интеллекта как «черного ящика».
Еще одной слабостью технологий, по мнению НОАК, является их неспособность брать на себя ответственность за принятые решения, в отличие от командиров-людей, которые могут корректировать планы, гибко реагируя на ситуации.
В статье также говорится, что даже современное оборудование, такое как автоматизированные системы противоракетной обороны, часто полагается на операторов-людей для принятия окончательных решений с целью обеспечения ответственности.
Китай является ярым сторонником регулирования использования ИИ в армии и ранее представлял в Организацию Объединенных Наций документы по этому вопросу, подчеркивая необходимость «человеческого контроля над технологиями».
Председатель КНР Си Цзиньпин подчеркнул необходимость контроля над технологиями, и на последней встрече с американским коллегой Джо Байденом в Перу два месяца назад обе державы согласились, что «люди, а не искусственный интеллект, должны решать, как использовать ядерное оружие».
В последнем ежегодном отчете Пентагона о вооруженных силах Китая, опубликованном в прошлом месяце, говорится, что НОАК стремится к сотрудничеству человека и машины, стремясь к «алгоритмической войне» и «сетецентрической войне» к 2030 году.
В докладе отмечаются значительные инвестиции НОАК в беспилотные автомобили, предиктивное техническое обслуживание, автоматическое распознавание целей и подводные беспилотники. В то же время НОАК стремится использовать гражданские инициативы в области ИИ в таких областях, как беспилотные летательные аппараты, распознавание изображений и интеллектуальное принятие решений.
Соединённые Штаты также стремятся использовать эту технологию. В прошлом месяце глава Пентагона по цифровым технологиям и искусственному интеллекту Радха Пламб раскрыла подробности плана по интеграции этой технологии в боевые операции, назвав его «первой крупной попыткой внедрения передового ИИ для поддержки потребностей бойцов в режиме реального времени».
Она предупредила, что приобретение США этой технологии у таких «противников», как Китай, Россия, Иран и Северная Корея, «ускоряется и создает значительные риски для национальной безопасности».
Источник
Комментарий (0)