Meta는 개발자가 생성적 인공지능 (AI) 모델을 실제 사용에 적용하기 전에 신뢰성과 안전성을 평가하고 개선할 수 있는 오픈 소스 도구를 만드는 프로젝트인 Purple Llama를 소개했습니다.
메타는 AI 안전을 보장하기 위해 협력적인 노력이 필요하다고 강조하며, AI 문제는 고립된 방법으로는 해결할 수 없다고 주장했습니다.
이 회사는 Purple Llama의 목표는 대규모 언어 모델과 기타 AI 기술에 대한 우려가 커짐에 따라 더욱 안전한 생성 AI를 개발하기 위한 공통 플랫폼을 구축하는 것이라고 밝혔습니다.
사이버보안 회사 Ontinue의 최고정보보안책임자인 개러스 린달-와이즈는 Purple Llama를 더 안전한 AI 기술을 향한 "긍정적이고 사전 예방적 조치"라고 부릅니다.
Purple Llama 프로젝트는 AI 개발자, AWS 및 Google Cloud와 같은 클라우드 서비스, Intel, AMD, Nvidia와 같은 반도체 회사, Microsoft를 포함한 소프트웨어 회사와 협력합니다.
Purple Llama를 통해 출시된 첫 번째 툴킷은 CyberSecEval입니다. 이는 AI가 생성한 소프트웨어의 사이버 보안 위험을 평가하는 도구입니다.
폭력이나 불법 행위에 대한 논의를 포함하여 부적절하거나 유해한 텍스트를 식별하는 언어 모델이 있습니다.
개발자는 CyberSecEval을 사용하여 AI 모델이 안전하지 않은 코드를 생성하거나 사이버 공격을 지원하는지 테스트할 수 있습니다.
메타 연구에 따르면 대규모 언어 모델은 취약한 코드를 종종 암시하는 것으로 나타났으며, 이는 AI 보안을 위해 지속적인 테스트와 개선의 중요성을 강조합니다.
라마 가드(Llama Guard)는 잠재적으로 유해하거나 불쾌한 언어를 식별하도록 훈련된 대규모 언어 모델인 또 다른 툴킷입니다.
개발자는 Llama Guard를 사용하여 모델이 안전하지 않은 콘텐츠를 생성하거나 허용하는지 확인하고, 부적절한 출력으로 이어질 수 있는 메시지를 필터링하는 데 도움이 됩니다.
(IFW에 따르면)
영국, AI에 '막대한' 투자, 5개 신규 양자 프로젝트 시작
AI GUIDi 벨트, 시각 장애인 지팡이 대체
기술 대기업들의 오픈소스 AI 연합이 OpenAI와 경쟁할 것
중국의 AI 챗봇 개발의 독특한 방향
[광고_2]
원천
댓글 (0)