ここ数カ月、児童安全の専門家や研究者は、人工AIがオンラインでの虐待を悪化させるリスクがあると警告している。
メタCEOのマーク・ザッカーバーグ氏は、2024年1月31日に行われた米国上院司法委員会の公聴会で、AI生成画像を持った大勢の参加者の前で演説した。写真:ロイター
NCMECは、2023年にすべての情報源から受け取った児童虐待資料の報告の総数をまだ公表していない。しかし、2022年には、この問題に関する約8,830万件のファイルの報告を受け取っている。
「革新的なAI企業自身、(オンライン)プラットフォーム、そして一般の人々から報告を受けています」とNCMEC副社長のジョン・シェハン氏は語った。
Meta、X、TikTok、Snap、DiscordのCEOは、1月31日(水)に行われたオンラインプラットフォームにおける子供の安全に関する米国上院公聴会で証言した。米国議員らは、ソーシャルメディア企業に対し、「オンライン上の捕食者」から子供を守るための取り組みについて質問した。
スタンフォード・インターネット・オブザーバトリーの研究者らは昨年6月の報告書で、生成AIは悪意のある人物によって使用され、現実世界の子供たちの偽の画像を作成することで繰り返し危害を加える可能性があると述べた。
ネット上の児童搾取の通報を受け付けるNCMECのサイバーチップラインのディレクター、ファロン・マクナルティ氏は、AIが生成したコンテンツは「ますます写真のようにリアル」になっており、被害者が実在の人間かどうかを判断するのが難しくなっていると述べた。
ChatGPTを開発したOpenAIはNCMECに報告書を提出するプロセスを確立しており、同組織は他のAI企業と協議中だとマクナルティ氏は語った。
ホアン・ハイ(ロイター、FT)
[広告2]
ソース
コメント (0)