誤解を招くAIコンテンツには捏造された事実や医学的アドバイス、有名人の死亡に関するデマなどが含まれており、この技術がオンライン上の誤情報問題を悪化させる可能性があるという新たな懸念が生じている。
AIを使ってフェイクニュースを拡散する浮動型ウェブサイトへの懸念が現実のものとなった。イラスト写真:GI
2つの報告書は、オンライン上の誤情報を追跡するニュースガード社と、デジタル調査のためのリソースとトレーニングを提供するシャドウドラゴン社によって別々に発表された。
「読者はニュースソースへの不信感を募らせています。信頼できる情報源と信頼できない情報源の区別がつかないことが一因です」と、ニュースガードのCEO、スティーブン・ブリル氏は声明で述べた。「AI生成サイトの新たな波は、読者が誰がニュースを提供しているのかを見分けることをさらに困難にし、信頼をさらに損なうでしょう。」
NewsGuard は、ニュースからライフスタイル情報まで 10 の言語で公開され、コンテンツ全体がまたは主に AI ツールを使用して書かれた 125 の Web サイトを特定しました。
これらのサイトには健康ポータルも含まれており、NewsGuard によれば、医療アドバイスを提供する AI 生成記事を 50 件以上公開しているという。
ニュースガードは、これらのサイトには広告が溢れていることが多く、偽のコンテンツは多くの場合完全に匿名であるサイト所有者の広告を「クリックベイト」するために作成されたことを示唆していると述べた。
ShadowDragonは、InstagramやAmazonのレビューを含むウェブサイトやソーシャルメディア上で、偽造コンテンツを発見しました。同社はまた、写真や動画の説明文にChatGPTなどのAIツールを使用していると思われる複数のInstagramアカウントも指摘しました。
研究者たちは、事例を見つけるために、AIツールによって生成される露骨な誤情報や定型的な回答を探しました。中には、誤情報や有害なコンテンツを含む記事を書くように指示されたにもかかわらず、AIコンテンツ警告によって生成された情報を削除しなかったサイトもありました。
ShadowDragonは、求人情報を扱うソーシャルネットワークLinkedIn、Twitterの投稿、その他多くのソーシャルネットワークで、このようなメッセージを発見しました。Twitterの投稿の中には、ReplyGPTなどのボットによって投稿されたものもあり、これらはユーザーのコメントに自動的に返信するものでした。
ホアンハイ(NewsGuard、NYT による)
[広告2]
ソース
コメント (0)