테오 9to5Mac, Apple은 최근 App Store에서 여러 AI 이미지 생성 앱을 제거했습니다. 논란을 불러일으키고 많은 사람들, 특히 청소년들에게 우려를 불러일으키는 누드 이미지를 만들기 위해 특별히 설계된 애플리케이션입니다.
Apple의 이러한 조치는 404 Media가 이러한 AI 이미징 애플리케이션의 문제적 성격을 강조하는 조사를 실시한 후에 나온 것입니다. 404 Media의 초기 조사에서는 "모든 소녀에게 무료로 옷을 벗길 수 있다"는 주장과 함께 Instagram에서 광고되는 AI 앱의 혼란스러운 추세가 밝혀졌습니다. 이러한 광고는 종종 사용자를 "예술 창작 도구"라고 설명하는 App Store로 연결합니다. 조사를 통해 이러한 앱의 존재가 밝혀졌을 뿐만 아니라 주류 광고 플랫폼을 통한 접근성도 강조되었습니다.
Apple은 404 Media의 초기 문의에 즉시 응답하지 않았지만 앱 및 광고에 대한 직접 링크를 포함한 세부 정보를 받은 후 신속하게 조치를 취했습니다. 이러한 사전 예방적 접근 방식을 통해 회사는 유해한 콘텐츠를 생성하는 기술의 오용을 방지하기 위해 App Store에서 위반 앱을 즉시 제거할 수 있습니다.
실제로 앞서 언급한 AI 이미징 애플리케이션은 미국과 유럽 전역의 학교에서 십대의 가짜 누드 이미지를 만드는 데 사용된 후 최근 몇 달 동안 많은 주목을 받았습니다. 이러한 유해한 온라인 애플리케이션을 제한하기 위해 Meta와 같은 플랫폼은 이러한 광고를 제거하는 조치를 취했지만, 이 콘텐츠를 지속적으로 효과적으로 제어하는 데는 여전히 어려움이 남아 있습니다.
Apple의 조치는 올바른 방향으로 나아가는 단계이기는 하지만 디지털 콘텐츠 조정에 있어 지속적인 과제를 강조하기도 합니다. Google과 같은 회사는 유명인과 공인이 관련된 성적으로 노골적인 딥페이크 콘텐츠로 유명한 'MrDeepFakes'와 같은 사이트로 사용자를 유도한 것에 대해 조사를 받았습니다.
Apple은 이것이 쉬운 싸움이 아니라는 것을 알고 있으며 삭제된 앱은 여전히 새로운 누드 사진 생성 앱으로 대체될 수 있습니다. 실제로 이는 소셜 네트워크 사용자의 안전과 개인정보를 보호하기 위해 중단되어야 하는 추세입니다.