Способность модели рассуждать, решать сложные математические задачи и отвечать на вопросы научных исследований рассматривается как важный шаг вперед в усилиях по разработке общего искусственного интеллекта (ОИИ) — машин с когнитивными способностями, подобными человеческим.
Компания OpenAI заявила, что была особенно «осторожна» в отношении того, как представить модель o1 широкой публике, учитывая её передовые возможности. Фото: Getty Images
По данным Financial Times, OpenAI оценила риск новых моделей для проблем, связанных с химическим, биологическим, радиологическим и ядерным (ХБРЯ) оружием, как «средний» — это самый высокий уровень, когда-либо оцениваемый компанией. Это означает, что технология «значительно улучшила» возможности экспертов по созданию биологического оружия.
Эксперты утверждают, что программное обеспечение на основе искусственного интеллекта, способное к детальным рассуждениям, особенно в руках злоумышленников, может повысить риск злоупотреблений.
Профессор Йошуа Бенджио, ведущий мировой специалист в области искусственного интеллекта из Монреальского университета, подчеркнул, что этот средний уровень риска повышает актуальность принятия нормативных актов в области искусственного интеллекта, таких как законопроект SB 1047, который в настоящее время обсуждается в Калифорнии. Этот законопроект обязывает разработчиков ИИ принимать меры для снижения риска использования их моделей для разработки биологического оружия.
По данным The Verge, безопасность моделей ИИ стала серьезной проблемой, поскольку такие технологические компании, как Google, Meta и Anthropic, стремятся создавать и совершенствовать передовые системы ИИ.
Эти системы могут принести огромную пользу, помогая людям выполнять задачи и оказывая содействие в различных областях, но также создают проблемы с точки зрения безопасности и социальной ответственности.
Као Фонг (по данным FT, Reuters, The Verge)
Источник: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
Комментарий (0)