Модель способна рассуждать, решать сложные математические задачи и отвечать на вопросы научных исследований, что считается важным шагом вперед в усилиях по разработке общего искусственного интеллекта (AGI) — машин с когнитивными способностями, подобными человеческим.
OpenAI заявила, что была особенно «осторожна» в отношении того, как она представит модель o1 публике, учитывая ее передовые возможности. Фото: Getty Images
По данным Financial Times, OpenAI оценила риск этих новых моделей как «средний» для проблем, связанных с химическим, биологическим, радиологическим и ядерным (ХБРЯ) оружием, самый высокий, который когда-либо оценивала компания. Это означает, что технология «значительно улучшила» способность экспертов создавать биологическое оружие.
По мнению экспертов, программное обеспечение на основе искусственного интеллекта, способное к детальным рассуждениям, особенно в руках недобросовестных лиц, может увеличить риск злоупотреблений.
Профессор Йошуа Бенджио, ведущий мировой ученый в области ИИ из Монреальского университета, подчеркнул, что этот средний уровень риска повышает срочность регулирования ИИ, такого как SB 1047, который в настоящее время обсуждается в Калифорнии. Этот законопроект требует от производителей ИИ принятия мер по снижению риска несанкционированного использования их моделей для разработки биологического оружия.
По данным The Verge, безопасность моделей ИИ стала серьезной проблемой, поскольку такие технологические компании, как Google, Meta и Anthropic, стремятся создавать и совершенствовать передовые системы ИИ.
Эти системы могут принести огромную пользу, помогая людям выполнять задачи и оказывая помощь в различных областях, но также создают проблемы с безопасностью и социальной ответственностью.
Као Фонг (по данным FT, Reuters, The Verge)
Источник: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
Комментарий (0)