이전에 EU 회원국은 특정 법 집행 상황에서만 공공장소에서 얼굴 스캐닝 기술을 사용하기로 합의했습니다. 이는 국가가 유럽 의회 및 위원회와 협상할 때 "적색선"으로 간주됩니다.
일부 중도 우파 의원들은 실종 아동을 찾거나 테러 공격을 예방하는 데 생체 추적 기술을 사용할 수 있는 예외안을 제안했지만, 이 역시 본회의 투표에서 승인되지 않았습니다.
의원들은 GPT-4와 같은 생성적 AI 플랫폼에 대해 추가 조치를 취하기로 합의했습니다. 따라서 OpenAI와 Google과 같은 회사는 위험 평가를 실시하고 AI 모델을 훈련하는 데 어떤 저작권이 있는 자료가 사용되었는지 공개해야 합니다.
EU의 규제 접근 방식은 위험 평가에 기초하고 있습니다. 그들은 기술 자체보다는 AI 사용을 규제하는 데 중점을 두고, 소셜 스코어링과 같은 일부 애플리케이션을 전면적으로 금지하고 "고위험" 상황에서 해당 기술을 사용하기 위한 표준을 설정합니다.
AI 법안 초안의 전문은 6월 14일에 채택되었으며, 이를 통해 EU 의회, 회원국 및 유럽 위원회 간의 "3자" 논의가 이어질 수 있는 길이 열렸습니다.
위원회는 연말까지 합의에 도달해 이르면 2026년에 기업에 AI법을 시행할 수 있기를 기대하고 있습니다. 한편, 일부 관계자들은 인도와 인도네시아와 함께 G-7 국가에 적용될 자발적인 기업 "행동 강령"을 추진하고 있습니다.
EU가 인공 지능(AI)에 대한 규제를 강화함에 따라, 향후 10년 동안 해당 산업의 규모가 1조 3,000억 달러 이상으로 추산되며, 이 분야에 큰 영향을 미칠 수 있습니다. EU 규정을 위반할 경우 연간 매출의 최대 6%에 해당하는 벌금이 부과될 수 있습니다.
(블룸버그에 따르면)
[광고_2]
원천
댓글 (0)