: Телефон с интерфейсом обучения OpenAI GPT-o1 — Фото: FINANCIAL TIMES
По данным Financial Times от 13 сентября, компания OpenAI признала, что модель GPT-o1, которая была запущена только 12 сентября, «значительно» увеличивает риск использования искусственного интеллекта (ИИ) для создания биологического оружия.
В документе, объясняющем работу GPT-o1, опубликованном OpenAI, говорится, что новая модель имеет «средний уровень риска» для проблем, связанных с химическим, биологическим, радиологическим и ядерным оружием. Это самый высокий уровень риска, который OpenAI когда-либо присваивала своим моделям ИИ.
По данным OpenAI, это означает, что GPT-o1 может «значительно улучшить» возможности экспертов, желающих использовать его для создания биологического оружия.
Мира Мурати, главный технический директор (CTO) OpenAI, заявила, что, хотя GPT-o1 все еще находится на этапе тестирования, передовые возможности модели по-прежнему заставляют компанию быть крайне «осторожной» в отношении своей дорожной карты для общественности.
Г-жа Мурати также подтвердила, что модель была тщательно протестирована многопрофильной группой экспертов, нанятых OpenAI для проверки пределов возможностей модели, разработанной компанией.
Г-жа Мурати отметила, что процесс тестирования показал, что модель GPT-o1 соответствует общим критериям безопасности гораздо лучше своих предшественников.
Не останавливаясь на достигнутом, представители OpenAI также заверили, что пробная версия GPT-o1 «безопасна для развертывания» и не может создать более сложных рисков, чем разрабатываемые технологии.
Несмотря на приведенные выше заверения, значительная часть научного сообщества и тех, кто интересуется ИИ, по-прежнему не слишком оптимистичны относительно направления развития этой технологии.
Растут опасения, что ИИ развивается слишком быстро и опережает разработку и утверждение регулирующих его нормативных актов.
Профессор Йошуа Бенжио, специалист по информатике в Монреальском университете и один из ведущих мировых специалистов в области искусственного интеллекта, заявил, что если OpenAI сейчас представляет «средний риск» применения химического и биологического оружия, «это только подчеркивает важность и неотложность» законов, подобных тому, который горячо обсуждается в Калифорнии, направленных на регулирование этой области.
Ученый подчеркнул, что вышеперечисленные институты особенно необходимы в условиях, когда ИИ все больше приближается к уровню общего искусственного интеллекта (AGI), что означает наличие способности рассуждать наравне с человеком.
«Чем ближе новаторские модели ИИ к ИИОНу, тем больше рисков будет возрастать, если не будут приняты должные меры предосторожности. Расширенные возможности ИИ в области рассуждений и их использование в мошеннических целях чрезвычайно опасны», — оценил г-н Бенжио.
Источник: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Комментарий (0)