: Телефон, демонстрирующий интерфейс обучения OpenAI GPT-o1 - Фото: FINANCIAL TIMES
По данным Financial Times от 13 сентября, компания OpenAI признала, что модель GPT-o1, которая была запущена только 12 сентября, «значительно» увеличивает риск использования искусственного интеллекта (ИИ) для создания биологического оружия.
В документе, объясняющем, как работает GPT-o1, опубликованном OpenAI, говорится, что новая модель имеет «средний уровень риска» для проблем, связанных с химическим, биологическим, радиологическим и ядерным оружием. Это самый высокий уровень риска, который OpenAI когда-либо назначал своим моделям ИИ.
По данным OpenAI, это означает, что GPT-o1 может «значительно улучшить» возможности экспертов, которые хотят использовать его для создания биологического оружия.
Мира Мурати, главный технический директор (CTO) OpenAI, заявила, что, хотя GPT-o1 все еще находится на экспериментальной стадии, передовые возможности модели по-прежнему заставляют компанию быть крайне «осторожной» в отношении своей дорожной карты для общественности.
Г-жа Мурати также подтвердила, что модель была тщательно протестирована многопрофильной группой экспертов, нанятых OpenAI для проверки пределов возможностей модели, разработанной компанией.
По словам Мурати, испытания показали, что модель GPT-o1 соответствует общим критериям безопасности гораздо лучше, чем ее предшественники.
Не останавливаясь на достигнутом, представители OpenAI также заверили, что пробная версия GPT-o1 «безопасна для развертывания» и не может создать более сложных рисков, чем разработанные технологии.
Несмотря на приведенные выше заверения, значительная часть научного сообщества и тех, кто интересуется ИИ, по-прежнему не слишком оптимистично настроена относительно направления развития этой технологии.
Растут опасения, что ИИ развивается слишком быстро и опережает темпы разработки и утверждения регулирующих его нормативных актов.
По словам Йошуа Бенджио, профессора компьютерных наук в Монреальском университете и одного из ведущих мировых ученых в области искусственного интеллекта, если OpenAI сейчас представляет «средний риск» химического и биологического оружия, «это только усиливает важность и срочность» принятия законодательства, подобного тому, которое горячо обсуждается в Калифорнии для регулирования этой области .
Ученый подчеркнул, что вышеуказанные институты особенно необходимы в контексте все большего приближения ИИ к уровню общего искусственного интеллекта (AGI), что означает наличие способности рассуждать наравне с людьми.
«Чем ближе новаторские модели ИИ к ИИОН, тем больше рисков будет возрастать, если не будут приняты надлежащие меры предосторожности. Улучшенная способность ИИ мыслить и ее использование в мошеннических целях чрезвычайно опасны», — оценил г-н Бенжио.
Источник: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Комментарий (0)