5月22日、人工知能(AI)が作成したペンタゴン付近の爆発写真がアメリカのソーシャルメディアで共有され、株価は瞬く間に急落しました。AIによるフェイクニュースへの懸念が高まっています。
ペンタゴン付近の爆発をAIが偽造した写真。 |
オンラインのファクトチェック団体「ベリングキャット」のニック・ウォーターズ氏は、この写真の顕著な問題点をすぐに指摘した。まず、事件を裏付ける目撃者がいない。また、写真に写っている建物はペンタゴンには見えない。目立つ街灯や歩道から突き出た黒い柱など、いくつかの不自然な点は、写真が本物ではないことを示している。
Midjourney、Dall-e 2、Stable Diffusionなど、実物そっくりの画像を生成できる人工知能(AI)再構成ツールは数多く存在します。ただし、これらのツールはデータが不足している場合に、その不足部分を補うことになります。
アルジャジーラは、主要な出来事の写真がインターネット上に掲載される際に、AIが生成した写真と実際の写真を区別するための次のような対策を講じている。
- 爆発やその他の重大な事件が発生した場合、複数の人々から、複数の視点からの事実情報が得られることがよくあります。
- 誰がコンテンツを投稿していますか?彼らはどこに住んでいて、イベントはどこで開催されていますか?彼らはどのアカウントをフォローしていて、誰がフォローしていますか?彼らに連絡を取ったり、話したりすることはできますか?
- 画像と周囲の状況を分析する: 近くの場所や交通標識などの画像内の手がかりを探し、イベントがいつどこで発生する可能性があるかを判断します。
- 人物画像では、目、手、そして全体的な姿勢に注目してください。ディープフェイクと呼ばれる、人間を模倣したAI生成動画は、ほとんどの学習データセットに目を閉じた顔が含まれていないため、まばたきに問題が生じる傾向があります。手は物体を適切に掴むことができません。
- AI が生成した画像に写る人物の肌は滑らかであることが多く、髪の毛や歯までもが超完璧なものになります。
[広告2]
ソース
コメント (0)