BGRによると、新たな研究レポートで「Fun-Tuning」と呼ばれる驚くべき手法が明らかになったという。これは、AI(人工知能)を使用して、GoogleのGeminiを含む他の高度なAIモデルを標的とした非常に効果的なプロンプトインジェクション攻撃を自動的に生成するものである。
この方法により、AI の「ハッキング」がこれまでよりも速く、安く、簡単になり、AI をめぐるサイバーセキュリティの戦いが新たな激化を見せています。
悪意のある人物が AI を利用して AI を破壊する危険性。
プロンプト・インジェクションとは、悪意のある攻撃者がAIモデルの入力データに有害な指示を密かに挿入する手法です(例:ソースコード内のコメント、Web上の隠しテキストなど)。その目的は、AIを「騙す」ことで、事前にプログラムされた安全ルールを無視させ、機密データの漏洩、誤情報の提供、その他の危険な行為といった深刻な結果をもたらすことです。
ハッカーは AI を利用して AI を攻撃しています。
写真: LinkedInのスクリーンショット
以前は、特に Gemini や GPT-4 などの「クローズド」モデルでこれらの攻撃を正常に実行するには、非常に複雑で時間のかかる手動テストが必要になることが多かったです。
しかし、Fun-Tuningは状況を一変させました。複数の大学の研究者チームによって開発されたこの手法は、GoogleがGeminiユーザーに無料で提供する洗練されたアプリケーション・プログラミング・インターフェース(API)を巧みに活用しています。
Fun-Tuningは、チューニングプロセス中のGeminiモデルの微妙な反応(例えば、データ内のエラーへの反応など)を分析することで、悪意のある文を隠蔽するのに最も効果的な「接頭辞」と「接尾辞」を自動的に特定できます。これにより、AIが攻撃者の悪意ある意図に従う可能性が大幅に高まります。
テスト結果によると、Fun-Tuning は Gemini のいくつかのバージョンで最大 82% の成功率を達成しました。これは、従来の攻撃方法で達成された 30% 未満をはるかに上回る数値です。
Fun-Tuningの危険性をさらに高めているのは、その実行コストの低さです。GoogleのチューニングAPIは無料で提供されているため、効果的な攻撃を作成するための計算コストはわずか10ドル程度です。さらに、研究者たちは、あるバージョンのGemini向けに設計された攻撃が他のバージョンにも容易に適用できることを発見しており、広範囲にわたる攻撃のリスクを生み出しています。
GoogleはFun-Tuning技術がもたらす脅威を認識していることを認めていますが、チューニングAPIの動作を変更するかどうかについてはまだコメントしていません。研究チームはまた、この技術に対する防御の難しさを指摘しています。Fun-Tuningによって悪用される情報がチューニングプロセスから削除された場合、正当な開発者にとってAPIの有用性は低下します。逆に、変更がなければ、悪意のある攻撃者が悪用するための足掛かりとして利用され続けることになります。
Fun-Tuningの出現は、サイバー空間における対立が新たな、より複雑な段階に入ったことを示す明確な警告です。AIは今や、悪意のある行為者にとって標的であるだけでなく、ツールや武器にもなっています。
[広告2]
出典: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






コメント (0)