이 모델은 추론하고, 복잡한 수학 문제를 풀고, 과학적 연구 질문에 답할 수 있으며, 이는 인간과 같은 인지 능력을 갖춘 기계인 인공 일반 지능(AGI)을 개발하는 데 있어 중요한 진전으로 간주됩니다.
OpenAI는 o1 모델의 고급 기능을 고려할 때, 이를 대중에 공개하는 방식에 특히 "신중"하다고 밝혔습니다. 사진: 게티 이미지
파이낸셜 타임스에 따르면, OpenAI는 이 새로운 모델들이 화학, 생물, 방사선, 핵(CBRN) 무기 관련 문제에 미치는 위험을 "중간"으로 평가했는데, 이는 OpenAI가 평가한 역대 최고 수준입니다. 이는 이 기술이 전문가들의 생물학 무기 제작 능력을 "상당히 향상"시켰다는 것을 의미합니다.
전문가에 따르면, 세부적인 추론이 가능한 AI 소프트웨어는 특히 악의적인 행위자의 손에 들어가면 남용 위험이 커질 수 있습니다.
몬트리올 대학교의 세계적인 AI 과학자 요슈아 벤지오 교수는 이러한 중간 수준의 위험 수준이 캘리포니아에서 현재 논의 중인 SB 1047과 같은 AI 규제의 시급성을 높인다고 강조했습니다. 이 법안은 AI 제조업체가 자사 모델이 생물무기 개발에 악용될 위험을 줄이기 위한 조치를 취하도록 요구합니다.
The Verge에 따르면, Google, Meta, Anthropic과 같은 기술 회사들이 고급 AI 시스템을 구축하고 개선하기 위해 경쟁하면서 AI 모델의 보안과 안전성이 주요 관심사가 되었습니다.
이러한 시스템은 인간이 작업을 완료하고 다양한 분야에서 지원을 제공하는 데 큰 이점을 제공할 수 있는 잠재력을 가지고 있지만, 안전과 사회적 책임이라는 과제도 안고 있습니다.
카오퐁 (FT, 로이터, 더 버지 보도)
[광고_2]
출처: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
댓글 (0)