Vietnam.vn - Nền tảng quảng bá Việt Nam

Китай и Запад определили «красные линии» рисков, связанных с ИИ

Công LuậnCông Luận19/03/2024


На прошлой неделе в Пекине собралась группа видных международных экспертов, которые определили «красные линии» в развитии ИИ, включая создание биологического оружия и проведение кибератак.

В заявлении, опубликованном через несколько дней после встречи, ученые предупредили, что необходим единый подход к безопасности ИИ, чтобы предотвратить «катастрофические или даже экзистенциальные риски для человечества в течение нашей жизни».

«В разгар холодной войны международное правительственное и научное сотрудничество помогло предотвратить ядерную катастрофу. Человечество должно вновь объединить усилия, чтобы предотвратить катастрофу, которая может возникнуть из-за беспрецедентных технологий», — говорится в заявлении.

Китайские и западные учёные определяют границу океана, изображение 1

Эксперты Международного диалога по безопасности ИИ в Пекине обозначили «красные линии» в развитии ИИ. Фото: FT

Среди подписавших письмо — Джеффри Хинтон и Йошуа Бенджио, которых часто называют «отцами» искусственного интеллекта; Стюарт Рассел, профессор компьютерных наук Калифорнийского университета; и Эндрю Яо, один из самых выдающихся китайских ученых-компьютерщиков.

Заявление было сделано после состоявшегося на прошлой неделе в Пекине Международного диалога по безопасности ИИ, на встрече с участием официальных лиц правительства Китая, которые выразили свое одобрение форуму и его результатам.

Президент США Джо Байден и председатель КНР Си Цзиньпин встретились в ноябре прошлого года и обсудили безопасность ИИ, договорившись начать диалог по этому вопросу. Ведущие мировые компании в сфере ИИ также в последние месяцы проводили частные встречи с китайскими экспертами в этой области.

В ноябре 2023 года 28 стран, включая Китай, и ведущие компании в области ИИ договорились о широком обязательстве по совместной работе над устранением экзистенциальных рисков, возникающих из-за передового ИИ, в ходе саммита по безопасности ИИ, проведенного канцлером Великобритании Риши Сунаком.

На прошлой неделе в Пекине эксперты обсудили угрозы, связанные с развитием «общего искусственного интеллекта» (ОИИ), или систем ИИ, которые равны человеку или превосходят его.

«Главным предметом обсуждения стали красные линии, которые не должна пересекать ни одна мощная система ИИ и которые правительствам всего мира следует устанавливать при разработке и внедрении ИИ», — сказал Бенжио.

Эти красные линии гарантируют, что «ни одна система ИИ не сможет воспроизводить или совершенствовать себя без явного согласия и поддержки человека» или «предпринимать действия, которые неоправданно увеличивают ее мощь и влияние».

Ученые добавили, что ни одна система не «существенно расширит возможности субъектов по разработке оружия массового уничтожения, нарушению Конвенции о биологическом или химическом оружии» или не сможет «автоматически осуществлять кибератаки, которые приведут к серьезным финансовым потерям или эквивалентному вреду».

Хоанг Хай (по данным FT)



Источник

Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же тема

Та же категория

Потрясены великолепной свадьбой, которая длилась 7 дней и ночей на Фукуоке
Парад старинных костюмов: радость ста цветов
Буй Конг Нам и Лам Бао Нгок соревнуются в высоких голосах
Вьетнам станет ведущим объектом культурного наследия в мире в 2025 году

Тот же автор

Наследство

Фигура

Бизнес

Постучитесь в дверь волшебной страны Тхай Нгуен

Текущие события

Политическая система

Местный

Продукт

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC