議員らは、来年初めに手続きを最終決定し、2026年から適用する計画を視野に、今後数週間にわたり詳細な規制について議論を続ける予定だ。
それまでは、企業は規則の中核的義務を実行するために自主的な AI 協定に署名することが推奨されます。
以下はEUが合意した協定の主な内容です。
高リスクシステム
いわゆる高リスクAIシステム(健康、安全、基本的人権、環境、民主主義、選挙、法の支配に重大な危害をもたらす可能性があると判断されるシステム)は、基本的人権やEU市場アクセス義務への影響評価を受けるなど、さまざまな要件を遵守する必要があります。
一方、低リスクのシステムには、ユーザーが利用を検討できるよう AI 生成コンテンツにラベルを付けるなどの、より緩やかな透明性義務が課されることになる。
法執行におけるAI
法執行機関は、誘拐、人身売買、性的搾取の被害者を特定し、特定の差し迫ったテロの脅威を防ぐためにのみ、公共の場でリアルタイムの遠隔生体認証システムを使用することが許可されています。
当局は、テロ、人身売買、性的搾取、殺人、誘拐、強姦、武装強盗、犯罪組織への参加、環境犯罪の容疑者を追跡するためにAI技術を使用することも許可される。
汎用およびプラットフォームAI(GPAI)システム
GPAI とその基礎モデルには、技術文書の作成、EU 著作権法の遵守、アルゴリズムのトレーニングに使用されたコンテンツの詳細な概要の公開などの透明性要件が適用されます。
潜在的にシステムリスクと大きな影響を持つGPAIを生み出す可能性があるカテゴリに該当するプラットフォームモデルには、一般的なモデル評価の実施、リスクのレビューと軽減、リバースエンジニアリングテストの実施、重大なインシデントの欧州委員会への通知、サイバーセキュリティの確保、エネルギー消費の報告が求められます。
EU の統一基準が公表されるまで、GPAI は規制を遵守するために行動規範に頼るという体系的なリスクにさらされています。
AIシステムは禁止されている
禁止されている行為およびコンテンツには、 政治、宗教、哲学的信念、性的指向、人種などの機密特性を使用する生体認証分類システムが含まれます。
インターネットや CCTV 映像から顔画像を非標的にスキャンして顔認識データベースを作成します。
職場や教育現場における感情認識
社会的行動または個人の特性に基づくソーシャルスコアリング。
AI システムは人間の行動を操作して自由意志を破壊します。
AIは、年齢、障害、経済的または社会的状況による人間の弱点を悪用するために使用されます。
制裁
違反の内容と関係企業の規模に応じて、罰金は750万ユーロ(800万ドル)または年間世界売上高の1.5%から始まり、3,500万ユーロまたは世界売上高の7%まで上がる。
(ロイター通信によると)
EU、人工知能規制で歴史的合意
EU、スマートデバイス保護法で合意
EUはテクノロジー大手に厳しい姿勢、違反企業を解体すると警告
[広告2]
ソース
コメント (0)