현재 AI 애플리케이션은 가짜 얼굴을 만들 수 있습니다.
AP는 어제 이 기관의 보고서를 인용하며 많은 사람들이 AI를 이용해 실제 사람의 얼굴을 누드 사진이나 영상 에 붙여넣고, 심지어 가짜 얼굴을 직접 디자인해 포르노 "작품"을 만들었다고 보도했습니다.
수십억 개의 가짜 이미지가 방치될 경우, 수사관들이 실제로 위험에 처한 아동을 구조하는 데 어려움을 겪을 수 있습니다. 악의적인 행위자들은 이러한 이미지를 제3자에게 판매하거나 피해자들을 협박하는 데 사용할 수도 있습니다.
Euronews 에 따르면, 미국과 영국의 현행법에 따르면 AI가 생성한 아동 성적 학대 영상의 대부분은 불법이지만, 법 집행 기관이 이를 막을 수 있는 도구를 갖추고 있는지는 불분명합니다.
[광고_2]
소스 링크
댓글 (0)