Vietnam.vn - Nền tảng quảng bá Việt Nam

新しい技術はAIが不正なデータから学習するのを防ぐのに役立ちます

オーストラリアの国立科学機関によると、この新技術は画像の内容を微妙に変更し、AIモデルが判読できないようにするが、人間の目には変更されないという。

VietnamPlusVietnamPlus12/08/2025

オーストラリアの科学者らは、人工知能(AI)システムが画像や芸術作品、その他のオンラインコンテンツから違法に学習するのを防ぐことができる新しい技術を開発した。

オーストラリアの国立科学機関(CSIRO)が開発したこの技術は、画像の内容を微妙に変更してAIモデルには判読できないようにするが、人間の目には変更されていないという。これは、CSIROがオーストラリアのサイバーセキュリティ共同研究センター(CSCRC)およびシカゴ大学と共同で開発したプロジェクトによるものだ。

著者らは、この画期的な技術により、アーティスト、組織、ソーシャルメディア利用者は、自身の作品や個人データがAIシステムの学習やディープフェイク(AIによって作成される非常にリアルな偽の動画、画像、音声)の作成に利用されるのを防ぐことができると述べています。例えば、ユーザーは投稿前に画像に自動的に保護レイヤーを適用することで、AIが顔の特徴を学習してディープフェイクを作成するのを防ぐことができます。

同様に、防衛組織は機密性の高い衛星画像やサイバー脅威に関するデータを保護する場合があります。

CSIROの科学者であるDerui Wang博士によると、この方法は強力な数学的基礎を使用して、AIモデルがそのコンテンツから学習できないようにする、言い換えれば、この技術は、人間にとっての有用性を維持しながら、プライバシーと著作権を保護する程度まで、AIがデータを「学習不可能」にする、という。

この保護は、AIが適応しようとしたり再訓練されたりしても有効のままであると彼は付け加えた。

ワン博士は、この技術は大規模に自動適用できると述べた。ソーシャルメディアプラットフォームやウェブサイトは、アップロードされるすべての画像にこの保護レイヤーを埋め込むことができるという。これにより、ディープフェイクの拡散を抑制し、知的財産の盗難を減らし、ユーザーがコンテンツを管理し続けることができるようになるだろう。

この手法は現在画像にのみ適用可能ですが、研究者たちはテキスト、 音楽、動画への適用拡大を計画しています。この技術はまだ理論段階であり、実験室環境でのみ効果的に機能することが実証されています。

上記の「証明不可能なデータの例」と題された科学研究は、2025 年のネットワークおよび分散システム セキュリティ シンポジウム (NDSS) で優秀研究賞を受賞しました。

(TTXVN/ベトナム+)

出典: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp


コメント (0)

No data
No data

同じトピック

同じカテゴリー

大舒で雲探しに迷う
ソンラの空には紫色のシムの花の丘があります
ランタン - 中秋節の思い出に贈る贈り物
トー・ヘ – 幼少期の贈り物から100万ドルの芸術作品へ

同じ著者

遺産

;

人物

;

企業

;

No videos available

時事問題

;

政治体制

;

地方

;

商品

;