スタートアップ企業OpenAIが2022年後半に初のAIアプリケーション「ChatGPT」をリリースした後、AIアプリケーション、特に生成型AIの開発競争が激化し、生活のあらゆる分野に多くの利便性をもたらしました。しかし、同時に多くのリスクも伴います。
プライバシーの侵害
近年、サイバー犯罪者がAIを駆使して実在の人物の画像や音声を偽造した動画クリップを作成し、多くの組織や個人が被害に遭っています。その一例がディープフェイクです。
2023年11月末にSumsubが発表した個人情報詐欺レポートによると、ディープフェイク詐欺は2022年から2023年にかけて世界中で10倍に増加しました。これは、人工知能(AI)アプリケーションが世界中で爆発的に普及した時期でもあります。
Status Labsは、ディープフェイクが文化、プライバシー、そして個人の評判に大きな影響を与えていると指摘しています。ディープフェイクに関するニュースや注目の多くは、セレブポルノ、リベンジポルノ、偽情報、フェイクニュース、脅迫、詐欺などに集中しています。例えば、2019年には、米国のあるエネルギー会社が、ハッカーに24万3000ドルを詐取されました。ハッカーは会社の幹部の画像と声を偽造し、従業員にパートナー企業への資金移動を依頼しました。
ロイター通信によると、2023年には世界中のソーシャルネットワークで約50万本のディープフェイク動画と音声が共有されました。娯楽目的のディープフェイクに加え、悪意のある人物がコミュニティを欺くために作成したトリックも存在します。情報筋によると、2022年には世界中でディープフェイク詐欺による損失は最大1,100万ドルに上ると推定されています。
多くの技術専門家は、知的財産権や真正性、さらにはAIによって作成された「作品」間の知的財産権紛争など、AIの悪影響について警告を発しています。例えば、ある人がAIアプリケーションに特定のテーマの絵を描いてもらうよう依頼したのに対し、別の人がAIに同じ絵を描いてもらうと、多くの類似点を持つ絵が出来上がってしまうといったケースが挙げられます。
これは所有権をめぐる紛争につながる可能性が非常に高い。しかしながら、AI生成コンテンツに対する著作権の認定(創造的なAIを発注する個人やAIアプリケーションを開発する企業に著作権を認める)については、現時点では世界的にまだ結論が出ていない。
AIアプリケーションによって生成された画像
本物と偽物の区別が難しい
では、AI生成コンテンツは著作権を侵害する可能性があるのでしょうか?技術的には、AI生成コンテンツは、学習済みのデータからアルゴリズムによって合成されます。これらのデータベースは、AIアプリケーション開発者によって、主にインターネット上の知識ベースなど、様々なソースから収集されています。これらの作品の多くは、著作権所有者に著作権が付与されています。
2023年12月27日、ニューヨーク・タイムズ紙(米国)は、OpenAI(ChatGPTと共同で)とMicrosoftを提訴しました。両社の記事数百万件が、両社のAIチャットボットとAIプラットフォームの学習に利用されたと主張しています。証拠として、チャットボットがユーザーのリクエストに応じて作成したコンテンツが、記事の内容と同一または類似していることが挙げられます。本紙は、企業が営利目的で自社の「知的財産」を利用することを無視することはできません。
ニューヨーク・タイムズは、AI関連の著作権訴訟を起こした最初の米国の主要新聞社です。特にニューヨーク・タイムズの成功を受けて、今後他の新聞社も追随する可能性があります。
オープンAIはこれまで、2023年7月にAP通信社と、また2023年12月にはポリティコとビジネス・インサイダーという2つの新聞を所有するドイツの出版社アクセル・シュプリンガーと著作権ライセンス契約を締結している。
女優サラ・シルバーマンも2023年7月に2件の訴訟に加わり、MetaとOpenAIが彼女の回顧録をAIプログラムの学習テキストとして利用したと訴えました。AIシステムが数万冊もの書籍をデータベースに取り込んでいたことが明らかになると、多くの作家も懸念を表明し、ジョナサン・フランゼンやジョン・グリシャムといった作家からの訴訟につながりました。
一方、写真サービスのゲッティイメージズも、同社の著作権で保護されたビジュアル素材を無断で使用したとして、テキストプロンプトに基づいて画像を作成したとしてAI企業を訴えた...
AIツールに「作成」を依頼した「作品」をユーザーが「不注意に」使用すると、著作権の問題に直面する可能性があります。専門家は常に、AIツールは検索、データ収集、そして参考のための提案にのみ使用することを推奨しています。
一方、AIアプリケーションは、特定のコンテンツの真偽を判別できない場合、ユーザーを混乱させる可能性があります。出版社や新聞社は、原稿を受け取る際に混乱する可能性があります。教師もまた、生徒の作品にAIが使用されているかどうかを判断するのに苦労します。
何が本物で何が偽物か分からなくなるため、コミュニティはより一層の警戒を強いられるでしょう。例えば、写真がAIによって「魔法をかけられた」のか、編集されたのかを一般の人が見分けるのは困難になるでしょう。
AIの利用に関する法的規制が必要
AI介入を検知できるアプリケーションツールの登場を待つ間、管理機関は、この技術を用いたプライベートコンテンツの作成に関する明確かつ具体的な法的規制を早急に整備する必要があります。法的規制は、AIによって操作された画像にデフォルトで透かしを付与するなど、コンテンツや作品にAIが介入していることを誰もが理解できるようにする必要があります。
[広告2]
出典: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
コメント (0)