議員らは、来年初めに手続きを最終決定し、2026年から適用する計画を視野に、今後数週間にわたり詳細な規制について議論を続ける予定だ。

それまでは、企業は規則の中核的義務を実行するために自主的な AI 協定に署名することが推奨されます。

以下はEUが合意した協定の主な内容です。

高リスクシステム

いわゆる高リスクAIシステム(健康、安全、基本的人権、環境、民主主義、選挙、法の支配に重大な危害をもたらす可能性があると判断されるシステム)は、基本的人権やEU市場アクセス義務への影響評価を受けるなど、さまざまな要件を遵守する必要があります。

eltqxowexvjbnmywubkxiyj3ha.jpg
2023年9月1日にベルリンで開催された消費者向け技術見本市で、ロボットアームに搭載されたAIカメラ「ヒューニット」が展示された。写真:ロイター

一方、低リスクのシステムには、ユーザーが利用を検討できるよう AI 生成コンテンツにラベルを付けるなどの、より緩やかな透明性義務が課されることになる。

法執行におけるAI

法執行機関は、誘拐、人身売買、性的搾取の被害者を特定し、特定の差し迫ったテロの脅威を防ぐためにのみ、公共の場でリアルタイムの遠隔生体認証システムを使用することが許可されています。

当局は、テロ、人身売買、性的搾取、殺人、誘拐、強姦、武装強盗、犯罪組織への参加、環境犯罪の容疑者を追跡するためにAI技術を使用することも許可される。

汎用およびプラットフォームAI(GPAI)システム

GPAI とその基礎モデルには、技術文書の作成、EU 著作権法の遵守、アルゴリズムのトレーニングに使用されたコンテンツの詳細な概要の公開などの透明性要件が適用されます。

潜在的にシステムリスクと大きな影響を持つGPAIを生み出す可能性があるカテゴリに該当するプラットフォームモデルには、一般的なモデル評価の実施、リスクのレビューと軽減、リバースエンジニアリングテストの実施、重大なインシデントの欧州委員会への通知、サイバーセキュリティの確保、エネルギー消費の報告が求められます。

owaad7543vnahei6k3ozfuuo5u.jpg
スイス・ジュネーブで開催されたグッド・グローバル・サミットに出展されたロボット「Rmeca」。写真:ロイター

EU の統一基準が公表されるまで、GPAI は規制を遵守するために行動規範に頼るという体系的なリスクにさらされています。

AIシステムは禁止されている

禁止されている行為およびコンテンツには、 政治、宗教、哲学的信念、性的指向、人種などの機密特性を使用する生体認証分類システムが含まれます。

インターネットや CCTV 映像から顔画像を非標的にスキャンして顔認識データベースを作成します。

職場や教育現場における感情認識

社会的行動または個人の特性に基づくソーシャルスコアリング。

AI システムは人間の行動を操作して自由意志を破壊します。

AIは、年齢、障害、経済的または社会的状況による人間の弱点を悪用するために使用されます。

制裁

違反の内容と関係企業の規模に応じて、罰金は750万ユーロ(800万ドル)または年間世界売上高の1.5%から始まり、3,500万ユーロまたは世界売上高の7%まで上がる。

(ロイター通信によると)

EU、人工知能規制で歴史的合意

EU、人工知能規制で歴史的合意

欧州議会と加盟国の間の合意により、人工知能(AI)、ソーシャルメディア、検索エンジンが規制される。
EU、スマートデバイス保護法で合意

EU、スマートデバイス保護法で合意

11月30日、EU議員らは、デジタル要素を備えた製品がこの市場で使用される前にサイバーセキュリティを保証することを義務付ける、接続デバイスを保護するための提案について暫定合意に達した。
EUはテクノロジー大手に厳しい姿勢、違反企業を解体すると警告

EUはテクノロジー大手に厳しい姿勢、違反企業を解体すると警告

欧州連合(EU)は、世界収益の10%~20%の罰金を科す可能性がある厳しい制裁措置で大手テクノロジー企業の管理を強化し続けており、規制に従わない企業には分割を強制する措置も取られている。