VNA 에 따르면, 일본은 점점 흔해지고 있는 가짜 콘텐츠를 만들고 허위 정보를 퍼뜨리는 데 AI를 오용하는 등의 위험에 대응하기 위해 인공지능(AI)의 안전 기준을 개발하는 임무를 맡은 새로운 기관을 설립할 예정이다.
위 정보는 12월 21일 도쿄에서 열린 AI 전략 협의회에서 기시다 후미오 총리 가 발표한 내용입니다.
새로운 조직은 2024년 1월 일본 경제 산업성(METI) 정보기술진흥기구(IPA) 산하 'AI 안전연구소(AISI)'라는 이름으로 설립될 예정이다.
AISI는 AI와 사이버보안 전문가로 구성되어 AI를 개발하는 기업에 대한 안전성 평가 기준을 설정하고 AI 오용 위험을 검증하는 업무를 담당합니다.
또한, 이날 회의에서 AI협의회는 10대 원칙을 담은 'AI 가이드라인'을 논의하며, 국내 기업들이 AI를 개발하거나 활용할 때 사람을 중심에 두도록 촉구했습니다.
계획대로라면, "AI 가이드라인"은 2024년 3월에 공식 승인되어 개발자, AI 서비스 제공자 및 사용자에게 적용될 예정입니다.
"AI 가이드라인"의 원칙은 국제 규칙을 개발하기 위한 7개국(G7)의 "히로시마 AI 프로세스"를 기반으로 합니다.
인간 중심 원칙에 따라, 이 지침은 기업이 인권과 다양성을 존중하고, 잘못된 정보에 대응하기 위한 조치를 취하며, 인간의 의사 결정과 감정을 부정적으로 조작하는 AI 서비스의 개발, 제공 및 이용을 절대 금지할 것을 요구합니다. 이 지침에는 개인정보 보호, 공정성, 보안, 투명성 확보 등의 원칙도 포함되어 있습니다.
10월 초, 리시 수낙 영국 총리는 새로운 형태의 AI를 시험, 평가 및 검증하기 위해 세계 최초의 AI 안전 연구소를 설립할 것이라고 발표했습니다. 이를 통해 규제 기관은 각 신규 모델의 역량을 파악하고, 편견과 허위 정보 등 사회적 해악부터 가장 심각한 위험까지 모든 위험을 파악할 수 있습니다.
얼마 지나지 않아 미국 상무부 장관 지나 라이몬도는 미국이 국가표준기술연구소와 협력하여 인공지능의 안전성과 신뢰성을 보장하기 위해 AI 안전연구소를 설립할 것이라고 발표했습니다.
최근 인공지능 도구는 기술 투자의 새로운 돌파구를 마련했습니다. 그러나 기술 전문가들은 인공지능이 데이터, 알고리즘, 애플리케이션의 신뢰도에 대한 우려와 함께 많은 위험과 과제를 안고 있다고 지적합니다.
따라서 인공지능의 이점을 극대화하기 위해서는 이 기술이 책임감 있게 개발되고 사용되고 있다는 확신을 대중에게 주는 것이 중요합니다.
최근 미국, 영국, 독일, 이탈리아, 체코, 폴란드, 호주, 칠레, 싱가포르 등 18개국이 기업이 남용 위험을 피하기 위해 설계 단계부터 안전한 인공지능 시스템을 만들도록 장려하는 협정에 서명했습니다.
이는 인공지능 개발을 촉진하기 위해 전 세계 정부가 추진하는 일련의 이니셔티브 중 가장 최근의 사례로 여겨지며, 인공지능은 산업과 사회 전반에 점점 더 큰 영향을 미치고 있습니다.
민 호아 (t/h)
[광고_2]
원천
댓글 (0)