"Frontier AI Framework" 문서에서는 Meta가 공개하지 않는 두 가지 유형의 AI 시스템, 즉 "고위험"과 "심각한 위험"을 식별합니다. 이는 모회사인 페이스북이 AI 기술에 대해 더욱 신중하다는 것을 보여줍니다.

이전에 CEO 마크 주커버그는 인공 일반 지능(AGI)을 일반화하겠다고 약속했습니다.

딥시크 테크크런치
메타는 위험성이 너무 높아 출시가 불가능한 두 가지 유형의 AI 시스템을 식별합니다. 사진: TechCrunch

메타의 정의에 따르면, "고위험" 시스템과 "심각한 위험" 시스템 모두 사이버, 생물학, 화학 공격을 지원할 수 있지만, "심각한 위험" 시스템은 "완화되지 않은 재앙적 결과"를 초래한다는 점이 다릅니다.

메타는 잘 보호되는 기업 환경에 자동으로 침투하거나, 파괴력이 강한 생물학 무기를 확산하는 등 여러 가지 시나리오를 제시합니다.

이는 회사가 강력한 AI 시스템이 출시되면 발생할 수 있는 "가장 시급한" 시나리오라고 믿는 내용입니다.

시스템 분류는 경험적 테스트를 기반으로 하지 않고 내부 및 외부 전문가의 의견을 바탕으로 합니다.

시스템이 "고위험"으로 판단되면 Meta는 시스템에 대한 접근을 내부적으로 제한하고 위험을 중간 수준으로 낮추기 위한 완화 조치가 마련될 때까지 시스템을 시작하지 않습니다.

반면, 시스템이 "중대한 위험"으로 식별되면 Meta는 시스템이 손상되는 것을 방지하기 위해 지정되지 않은 보호 조치를 적용하고 위험성이 낮아질 때까지 개발을 중단합니다.

TechCrunch에 따르면, Frontier AI Framework는 Meta의 시스템 개발에 대한 개방적인 접근 방식에 대한 비판을 달래기 위한 것으로 보입니다.

Meta는 OpenAI처럼 폐쇄적이지 않고 종종 AI 기술 소스 코드를 공개합니다. 기업의 입장에서는 개방적인 접근 방식에 장점과 단점이 모두 있습니다. 이 회사의 Llama AI 모델은 수억 번 다운로드되었지만, Llama는 미국에 적대적인 챗봇을 개발하는 데 악용된 것으로 알려졌습니다.

Meta는 Frontier AI Framework를 발표함으로써 현재 가장 유명한 중국 AI 스타트업인 DeepSeek을 타겟으로 삼을 수도 있습니다. DeepSeek 역시 오픈 소스 AI 전략을 추구하지만 보호 장치가 많지 않고 악의적인 출력을 생성하도록 쉽게 조작될 수 있습니다.

메타에 따르면, 고급 AI를 개발하고 적용하는 방법에 대한 결정을 내릴 때 장단점을 따져보면, 해당 기술은 사회에 유익한 측면과 적절한 수준의 위험을 모두 유지하는 방식으로 사회에 기여할 수 있습니다.

(테크크런치에 따르면)