(Dan Tri) - Chameleon AI モデルは、顔認識ツールから画像を保護するためにデジタル マスクを追加できます。
研究者チームが、ハッカーや詐欺師が個人情報やデジタルアカウントにアクセスするために顔スキャンを行うことからユーザーを保護できる人工知能 (AI) システムを開発した。
このツールはカメレオンと呼ばれます。
カメレオンは、隠しマスクを作成してユーザーの顔を「隠す」ことで機能します。この人工知能モデルは、データに最適化されており、低性能のテクノロジーデバイスでも使用できます。
この AI モデルは、ジョージア工科大学 (米国ジョージア工科大学) の研究者によって arXiv 誌に公開されました。
これにより、ユーザーはハッカーや AI データ収集ボットによる顔データスキャンの試みから自分の身元を保護することができます。
「カメレオンのようなプライバシー保護データと分析を共有することで、AI技術の責任あるガバナンスと導入を促進し、責任あるイノベーションで科学分野に勢いを生み出すことができます」と、ジョージア工科大学コンピュータサイエンス学部インテリジェントコンピューティングデータ学科のリン・リウ教授は述べています。
マスク モデルが適用されると、スキャンによって「別人」として表示されるため、顔認識ツールは画像を検出できなくなります。
実は同様の AI ツールはすでに存在していますが、Chameleon にはデータの最適化や画像セキュリティ品質の向上など、多くの改良点があります。
研究者らは、このツールは写真ごとに別々のマスクを使用するのではなく、ユーザーが更新した数枚の顔写真に基づいて各ユーザーのマスクを生成すると指摘している。
このツールの課題の 1 つは画像の品質を維持することであるため、研究者はダーク テクニックを使用して、カメレオンからの「知覚」を最適化しました。
手動による介入やパラメータ設定なしでマスクを自動的にレンダリングするため、AI が全体的な画像品質を損なうことはありません。
これはプライバシー重視の AI ツールであり、研究者らはカメレオンのコードを GitHub で近々公開する予定であることを明らかにしました。このオープンソースは開発者がアプリケーションに統合するために使用されます。
[広告2]
出典: https://dantri.com.vn/suc-manh-so/nguoi-dung-tranh-duoc-lua-dao-tu-nhan-dang-khuon-mat-nho-cong-cu-ai-moi-20241203130212300.htm
コメント (0)