テオ 9to5Mac, Appleは最近、いくつかのAI画像生成アプリをApp Storeから削除しました。これらは、論争を引き起こすヌード画像を作成するために特別に設計されたアプリケーションであり、多くの人々、特に十代の若者に懸念を引き起こしています。
Appleの今回の措置は、404 MediaがこれらのAI画像アプリケーションの問題性を浮き彫りにした調査を実施したことを受けて行われた。 404 Media の初期調査では、「女の子なら誰でも無料で脱げる」などの謳い文句で AI アプリが Instagram で宣伝されるという不穏な傾向が明らかになりました。これらの広告は多くの場合、ユーザーを App Store に誘導し、そこで「アート作成ツール」と表現されます。調査では、これらのアプリの存在が明らかになっただけでなく、主流の広告プラットフォームを通じてそれらのアプリにアクセスできることも浮き彫りになりました。
Apple は 404 Media からの最初の問い合わせにはすぐには応じなかったが、アプリや広告への直接リンクなどの詳細を受け取った後、すぐに対応をとった。この積極的なアプローチにより、同社は違反アプリを App Store から即座に削除し、テクノロジーの悪用による有害なコンテンツの作成を防ぐことができます。
実際、前述の AI 画像アプリケーションは、米国およびヨーロッパ全土の学校でティーンエイジャーの偽のヌード画像を作成するために使用されたため、ここ数カ月で大きな注目を集めました。これらの有害なオンライン アプリケーションを制限するために、Meta などのプラットフォームはそのような広告を削除する措置を講じていますが、このコンテンツを一貫して効果的に制御することには課題が残っています。
Apple の行動は正しい方向への一歩であると同時に、デジタルコンテンツのモデレーションにおける現在進行中の課題も浮き彫りにしています。 Google などの企業も、有名人や著名人が関与した性的に露骨なディープフェイク コンテンツで知られる「MrDeepFakes」のようなサイトにユーザーを誘導したとして厳しい監視にさらされています。
Apple は、これが簡単な戦いではないことを承知しており、削除されたアプリは依然として新しいヌード写真生成アプリに置き換えられる可能性があります。実際、これはソーシャル ネットワーク上のユーザーの安全とプライバシーを保護するために阻止する必要がある傾向です。