TruepicのCEO、ジェフリー・マクレガー氏は、今回の事件は「氷山の一角」に過ぎないと述べた。ソーシャルメディアでは今後さらに多くのAI生成コンテンツが登場するだろうが、我々はまだそれに備えていないとマクレガー氏は述べた。
CNNによると、Truepicは、Truepic Lensを通じてメディアの作成時に認証を行う技術を提供することで、この問題を解決したいと考えている。このデータ収集アプリは、画像の作成日時、場所、使用されたデバイスをユーザーに伝え、デジタル署名を適用することで、画像が自然画像かAI生成画像かを検証する。
ペンタゴン爆発の偽写真がツイッターで拡散
2015年に設立され、マイクロソフトの支援を受けているTruepic社は、 NGOからメディア企業、さらには請求の正当性を確認したい保険会社まで、同社に関心が寄せられていると述べた。
マクレガー氏は、あらゆるものが偽造可能となり、人工知能が品質とアクセス性の点で最高レベルに達したとき、もはやオンライン上の現実が何なのか分からなくなると述べた。
Truepicのようなテクノロジー企業は、長年にわたりオンライン上の偽情報対策に取り組んできました。しかし、ユーザーの指示に基づいて画像やテキストを生成できる新しいタイプのAIツールの台頭により、対策の緊急性が高まっています。今年初めには、バレンシアガのダウンジャケットを着たフランシスコ教皇や、ドナルド・トランプ前米大統領が逮捕される際の偽画像が広く拡散されました。どちらの事件も、AIの潜在的な危険性に何百万人もの人々を不安にさせました。
一部の議員は現在、テクノロジー企業に対し、AI生成コンテンツにラベルを貼ることでこの問題に対処するよう求めている。欧州委員会のヴェラ・ヨウロバ副委員長は、Google、Meta、Microsoft、TikTokなどの企業が、偽情報対策に関する欧州連合の自主行動規範に加盟していると述べた。
生成 AI を自社製品に実装している企業も含め、ますます多くのスタートアップ企業や大手テクノロジー企業が、画像や動画がAI で作成されたかどうかを人々が判断できるようにするための標準やソリューションを実装しようとしています。
しかし、AI技術の進歩は人間の対応能力を上回るスピードで進んでおり、これらの解決策が問題を完全に解決できるかどうかは不透明です。Dall-EやChatGPTを開発しているOpenAIでさえ、AI生成の文章検出を支援する取り組みは不完全であることを認めています。
ソリューションを開発している企業は、この問題を解決するために2つのアプローチを採用しています。1つは、AI生成画像がオンラインで作成・共有された後に、それを識別するためのプログラムを開発することです。もう1つは、ある種のデジタル署名を用いて、画像が本物かAI生成かを識別することに重点を置いています。
Reality DefenderとHive Moderationは、前者の研究に取り組んでいます。彼らのプラットフォームでは、ユーザーはスキャンする画像をアップロードし、その写真が本物かAIによって生成されたものかの割合を示す分析結果を受け取ることができます。
Reality Defenderは、独自のディープフェイクおよび生成コンテンツフィンガープリンティング技術を用いて、AIによって生成された動画、音声、画像を検出すると述べている。同社が提供した例では、トム・クルーズのディープフェイク画像が53%の「疑わしい」レベルと判定された。これは、画像に写っている人物の顔が歪んでおり、これは加工された写真によくある現象である。
AI生成のラベル付き画像
これらのサービスは無料版と有料版を提供しています。Hive Moderationは、画像1,000枚につき1.50ドルの料金を請求するとしています。Realty Defenderは、顧客が同社の専門知識とサポートを必要とする場合、様々な要因に基づいて価格が変動する可能性があると述べています。Reality DefenderのCEO、ベン・コールマン氏は、AIツールを使えば誰でも偽の写真を作成できるため、リスクは毎月倍増していると述べています。
他にもいくつかの企業が、画像に一種のラベルを付加し、それが本物かAI生成かを証明する取り組みを進めています。これまでのところ、この取り組みは主にコンテンツ真正性・発信アライアンス(C2PA)によって推進されています。
C2PAは、デジタルメディアの出所と履歴を認証するための技術標準を策定するために2021年に設立されました。Adobeのコンテンツ認証イニシアチブ(CAI)と、MicrosoftとBBCが主導するProject Originを統合し、デジタルニュースにおける誤情報の撲滅に重点を置いています。C2PAには、Truepic、Intel、Sonyなどの企業も参加しています。
C2PAの原則に基づき、CAIは企業が画像に関する情報を含むコンテンツ認証情報やメタデータを作成できるオープンソースツールを公開します。CAIのウェブサイトによると、これにより作成者は画像の作成方法に関する詳細を透明性を持って共有できるようになります。これにより、エンドユーザーは画像が誰によって、何を、どのように改変されたかという文脈にアクセスし、その画像の真正性を自ら判断できるようになります。
多くの企業が既にC2PA規格とCAIツールを自社のアプリケーションに統合しています。AdobeのPhotoshopに追加された新しいAI画像処理ツール「Firefly」は、コンテンツ認証情報機能を通じてC2PA規格に準拠しています。Microsoftも、Bing Image CreatorとMicrosoft Designerで作成された画像と動画に、今後数か月以内に暗号署名を追加すると発表しました。
Googleは5月、「この画像について」機能を発表しました。この機能により、ユーザーは画像がGoogleに初めて表示された日時と、どこで閲覧できるかを確認できます。また、Googleは、AIが生成したすべての画像について、元のファイルにマークアップを追加し、他のウェブサイトやプラットフォームで見つかった場合に「コンテキストを追加」できるようにすると発表しました。
テクノロジー企業がAI生成画像やデジタルメディアの完全性に関する懸念に対処しようとしている一方で、専門家は、企業が協力し、政府とも連携してこの問題に対処する必要があると強調しています。しかし、テクノロジー企業はリスクを顧みず、AI開発に躍起になっています。
[広告2]
ソースリンク
コメント (0)