AIの専門家や技術に精通した政治学者は、2024年の米国大統領選挙を前に、ChatGPTのような生成AIツールに関わる予測不可能な状況について警鐘を鳴らしている。
「アメリカはそれに備えていない」
5月15日、Fox NewsはZeroFox(米国ミネソタ州)のAI担当副社長AJナッシュ氏の発言を引用し、アメリカ人は人工AIへの対応に備えていないと警告した。ナッシュ氏によると、人工AIは選挙キャンペーン用のメール、メッセージ、 ビデオクリップを迅速に作成できるだけでなく、危険なツールにもなり得るという。
各国政府はAIツールの規制を競う
「生成AIは、音声・動画コンテンツの作成能力において飛躍的な進歩をもたらします。これを大規模に実行し、ソーシャルメディアプラットフォームに配信できるようになれば、計り知れないインパクトが生まれます」とナッシュ氏は説明する。ChatGPTのような生成AIが実現できる可能性は数多くあるが、その中には、アメリカ合衆国のような近代国家における選挙や投票に大きな影響を与えるものも数多くある。
ChatGPTは短時間で大量のコンテンツを作成できます
イラスト写真:ロイター
たとえば、ChatGPT は、候補者の声を模倣した自動音声メッセージを作成して有権者に間違った日に投票するよう指示したり、候補者が犯罪を告白したり人種差別的なコンテンツを作成したりする音声録音を公開したり、実際には行われていないスピーチやインタビューを行っている人物のビデオクリップを作成したり、地元のニュース報道に基づいてコンピューター生成画像を作成し、候補者が選挙から撤退したと誤って主張したりすることができます。
「もしイーロン・マスク本人が電話をかけてきて、特定の候補者に投票するよう説得してきたらどうでしょう?」と、アレンAI研究所(米国ワシントン州に本部を置く)の元CEO兼創設者であるオーレン・エツィオーニ博士は述べた。「多くの人が彼の言うことに耳を傾けるでしょう。しかし、その電話をかけたのはマスクではなく、AIなのです」とエツィオーニ博士は指摘した。
敵からの危険
サイバーセキュリティ企業Forcepoint(本社:米国テキサス州)のグローバル最高技術責任者(CTO)であるペトコ・ストヤノフ氏は、外国勢力が生成AIを悪用し、2024年の米国大統領選挙を妨害しようとする可能性があると警告した。「外国勢力、サイバー犯罪組織、あるいは国家が誰かになりすまそうとしたらどうなるのか? 影響はどの程度なのか? 対処方法はあるのか?」と、ストヤノフ氏は対処すべき問題を提起した。ストヤノフ氏によると、米国は選挙期間中、外国の情報源から大量の偽情報を流布することになるだろうという。
ピート・リケッツ上院議員(ネブラスカ州選出)も、2024年の選挙シーズン中に親中派組織がディープフェイク(実在の人物や出来事のように見えるように偽の画像や動画を作成する技術)を使用するリスクについて警告した。「彼らは間違いなくその能力を持っており、私たちは非常に警戒する必要がある」とリケッツ議員はFOXニュースに語った。
今年に入ってから、AIが生成したフェイクニュースがソーシャルメディアを席巻しています。例えば、バイデン氏がトランスジェンダーの人々に対して侮辱的な発言をしている偽動画や、図書館で悪魔崇拝について学ぶ子供たちの捏造画像などが挙げられます。ドナルド・トランプ前大統領の警察記録の写真がインターネット上に公開された際には、犯罪容疑で撮影されたわけではないにもかかわらず、多くの人がそれを信じてしまいました。また、AIが生成したトランプ氏が逮捕に抵抗する様子を捉えた画像も偽物でした。
イベット・クラーク下院議員(ニューヨーク州選出、民主党)は、AI生成の広告画像について有権者に通知することを候補者に義務付ける法案を提出しました。クラーク議員はまた、合成画像を作成するすべての人に、画像の出所を明確に示す透かしを入れることを義務付ける法案の共同提案者でもあります。複数の州も、ディープフェイクに関する懸念に対処するための独自の提案を発表しています。
リケッツ上院議員は、今できることは、人工AIのリスクについて国民の教育を強化することだと述べた。さらに、米国政府は選挙が始まる前に大学と協力し、偽画像を見抜く能力を向上させることができると述べた。
ChatGPTのアップグレード
Mashableによると、OpenAI(米国カリフォルニア州)はChatGPTに重要なアップグレードを施し、ツールの動作中にインターネットに接続して閲覧できるようになりました。これにより、ChatGPTは最新の情報を更新し、より正確な回答を提供できるようになります。現在、米国のAmazonなどの企業は、顧客とのやり取りにChatGPTのようなインターフェースを構築・統合するためにAIエンジニアを採用しています。
[広告2]
ソースリンク
コメント (0)