更新日時: 2024年3月31日 05:42:42
「Voice Engine」の小規模テストの結果を紹介したOpenAIのブログ投稿によると、このツールは基本的に15秒間の音声サンプルに基づいて誰かの声を複製できるという。
写真: OpenAI
OpenAIは音声複製ツールを発表したばかりだが、偽音声が聞き手を誤解させることを防ぐための安全策が講じられるまで、このツールは厳重に管理されることになる。
OpenAIは、音声生成は、特に選挙の年には深刻なリスクをもたらすことを認めている。しかし同社は、このツールを安全に構築・開発するために、政府、メディア、エンターテインメント、教育、市民社会などの国内外のパートナーと協力してフィードバックを集めていると述べた。
OpenAIは、Voice Engineによって生成されたすべての音声の発信元をマークし、ツールの使用方法を積極的に監視するなど、一連の安全対策を実施したと述べている。
音声複製ツールがますます安価になり、使いやすくなり、追跡が困難になっていることから、偽情報研究者は重要な選挙の年にAI搭載アプリが大量に悪用されるリスクを懸念している。
一例として、AIが生成した電話がある。これはミネソタ州選出のディーン・フィリップス下院議員のロビイストの発案によるもので、ジョー・バイデン大統領が2024年1月にニューハンプシャー州で行われる予備選挙で投票しないよう人々に呼びかけているように聞こえる。
この事件により、2024年の大統領選や今年の他の主要な世界選挙で、AIが生成したディープフェイク(偽の音声や動画)による誤情報が相次ぐのではないかと専門家の間で懸念が高まっている。
VNA/NDOによると
ソース
コメント (0)