ここ数か月、児童安全の専門家や研究者は、創造的なAIがオンラインでの虐待を悪化させる可能性があると警告している。
MetaのCEO、マーク・ザッカーバーグ氏は、2024年1月31日に行われた米国上院司法委員会の公聴会で、AI生成画像を持った大勢の参加者の前で演説した。写真:ロイター
NCMECは、2023年にすべての情報源から受け取った児童虐待コンテンツに関する報告の総数をまだ公表していない。しかし、2022年には、この問題に関する約8,830万件のファイルの報告を受け取っている。
NCMEC副社長のジョン・シーハン氏は、「革新的なAI企業自身、(オンライン)プラットフォーム、そして一般の人々から報告を受けています」と語った。
Meta、X、TikTok、Snap、DiscordのCEOは、水曜日(1月31日)、オンラインプラットフォームにおける子供の安全に関する米国上院公聴会で証言した。米国議員らは、ソーシャルメディア企業に対し、「オンライン上の捕食者」から子供を守るための取り組みについて質問した。
スタンフォード・インターネット・オブザーバトリーの研究者らは昨年6月の報告書で、生成AIは悪意のある人物によって使用され、子供たちの偽の画像を作成することで、現実の子供たちに繰り返し危害を加える可能性があると述べた。
ネット上の児童搾取の通報を受け付けるNCMECのサイバーティップラインのディレクター、ファロン・マクナルティ氏は、AIが生成したコンテンツは「ますます写真のようにリアル」になっており、被害者が実在の人間かどうかを判断するのが難しくなっていると述べた。
マクナルティ氏は、ChatGPTを開発したOpenAIがNCMECに報告書を提出するプロセスを確立しており、NCMECは他のAI企業と協議中だと述べた。
ホアン・ハイ(ロイター、FTによる)
[広告2]
ソース
コメント (0)