ソーシャルメディアをスクロールしたことがあるなら、AIが生成した画像や動画を目にしたことがあるかもしれません。トランポリンでジャンプするウサギの動画のように、多くの人が騙されてきました。しかし、OpenAIが開発したChatGPTの姉妹アプリであるSoraは、AI動画を新たなレベルに引き上げ、偽コンテンツを見分けることが不可欠になっています。

AIビデオツールの登場により、何が現実なのかを見分けることがこれまで以上に困難になっています。(出典:CNET)
2024年にリリースされ、最近Sora 2にアップデートされたこのアプリは、TikTokのようなインターフェースを備え、すべての動画がAIによって生成されます。「カメオ」機能では、シミュレーション映像に実在の人物を挿入することができ、あまりにもリアルで恐ろしい動画を作成できます。
その結果、多くの専門家は、Soraがディープフェイクを拡散させ、混乱を招き、本物と偽物の境界線を曖昧にすることを懸念しています。特に著名人は影響を受けやすく、SAG-AFTRAなどの団体はOpenAIに対し、保護対策の強化を求めています。
AIコンテンツの識別は、テクノロジー企業、ソーシャルネットワーク、そしてユーザーにとって大きな課題です。しかし、Soraで作成された動画を認識する方法は存在します。
ソラの透かしを見つける

Soraのウォーターマーク(緑色の矢印)は、どのツールで動画が作成されたかを識別するためのマークです。(出典:CNET)
Sora iOS アプリで作成されたすべてのビデオは、ダウンロード時に透かしが入ります。透かしは、TikTok の透かしと同様に、ビデオの端を移動する白い Sora ロゴ (クラウド アイコン) です。
これはAI生成コンテンツを直感的に認識する方法です。例えば、GoogleのGemini「ナノバナナ」モデルも画像に自動的に透かしを入れます。しかし、透かしは必ずしも信頼できるとは限りません。透かしが静的であれば、簡単に切り取ることができます。Soraのような動的な透かしであっても、専用アプリを使えば削除できます。
この件について質問されたOpenAIのCEO、サム・アルトマン氏は、誰でもフェイク動画を作成できるという事実に社会が適応する必要があると述べた。Soraが登場する以前は、広く利用可能で、アクセスしやすく、スキルを必要としないツールは存在しなかった。アルトマン氏の見解は、他の検証方法に頼る必要があることを示唆している。
メタデータを確認する

メタデータの確認は、動画がSoraのようなAIによって生成されたかどうかを判断するための重要なステップです。(出典:Canto)
メタデータのチェックは複雑すぎると思うかもしれませんが、実際には非常に簡単で効果的です。
メタデータとは、カメラの種類、撮影場所、撮影時間、ファイル名など、コンテンツの作成時に自動的に付加される一連の情報です。人間が生成したコンテンツでもAIが生成したコンテンツでも、メタデータはコンテンツに含まれます。AIコンテンツの場合、メタデータには多くの場合、その出所を証明する情報が付随します。
OpenAIはContent Provenance and Authentication Alliance(C2PA)のメンバーであるため、Soraの動画にはC2PAメタデータが含まれます。Content Authentication Initiativeの検証ツールで確認できます。
メタデータを確認する方法:
- verify.contentauthenticity.org にアクセスしてください
- チェックするファイルをアップロードする
- 「開く」をクリック
- 右側の表の情報を参照してください。
動画がAIによって生成された場合、概要にその旨が記載されます。Sora動画を確認すると、「OpenAIによって公開」という表示と、動画がAIによって生成されたことを確認する情報が表示されます。すべてのSora動画には、その出所を証明するためにこの情報が必要です。
出典: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






コメント (0)