OpenAIは、同社の知的財産を保護するための措置として、最先端の人工知能(AI)モデルへのアクセスを求める開発者に対し、 政府によるID確認を義務付けることを導入した。
OpenAIは上記の情報に関するコメントの要請に応じていない。
しかし、発表の中で、ChatGPTアプリケーションの「作成者」は、新しい検証プロセスを導入した理由として、一部の開発者が意図的にOpenAIのアプリケーションプログラミングインターフェース(API)を使用し、同社の利用ポリシーに違反したためだと説明した。
同社は公式には不正使用の防止が理由だと述べたが、今回の措置は、OpenAIのモデルの出力が競合他社によって収集され、自社のAIシステムをトレーニングしているのではないかという、より深刻な懸念から生じたものと思われる。
これは、AI コンテンツ検出を専門とする企業 Copyleaks の新しい調査によって実証されています。
Copyleaksは、大規模AIモデルに類似した「指紋」認識システムを用いて、ライバルモデルDeepSeek-R1(中国)の出力の約74%がOpenAIによって書かれたものと分類できることを発見しました。この数字は、複製だけでなく模倣も示唆しています。
Copyleaksは、Microsoftのphi-4やxAIのGrok-1といった他のAIモデルも調査しました。結果はOpenAIとの類似性はほとんどなく、「不一致」率はそれぞれ99.3%と100%でした。MistralのMixtralモデルには若干の類似性が見られました。
この研究は、モデルに異なる口調や形式で書くように指示した場合でも、言語の指紋と同様に、検出可能な文体上の特徴が残るという事実を浮き彫りにしています。
これらの指紋は、さまざまなタスク、トピック、プロンプトにわたって保持され、ある程度の精度でその発生源まで遡ることができます。
一方、一部の批評家は、OpenAI 自体が、多くの場合は彼らの同意を得ることなく、ニュース出版社、著者、クリエイターのコンテンツを含む Web からデータを収集して初期モデルを構築したと指摘しています。
コピーリークスのCEO、アロン・ヤミン氏は、2つの問題を指摘した。著作権で保護されたコンテンツで人間のモデルを許可なくトレーニングすることと、独自のAIシステムの出力を使用して競合モデルをトレーニングすること、つまり本質的には競合相手の製品をリバースエンジニアリングすることだ。
ヤミン氏は、どちらの方法も倫理的に議論の余地があるが、OpenAI の出力を使ったトレーニングは、本質的には元の開発者の同意や補償なしに実現が難しいイノベーションを利用するため、競争上のリスクをもたらすと主張している。
AI企業がますます強力なモデルの構築を競う中、誰が何を所有し、誰がどのデータでトレーニングできるかについての議論は激化している。
Copyleaks のデジタル フィンガープリント システムのようなツールは、パターン内の著作権を追跡および検証する潜在的な方法を提供します。
出典: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






コメント (0)