議員らは今後数週間にわたり詳細な規制について議論を続け、最終手続きが来年初めに完了し、2026年から適用される予定となっている。

それまでは、企業は規則の主要な義務を実行するために自主的な AI 協定に署名することが推奨されます。

以下はEUが合意した協定の主な内容です。

高リスクシステム

いわゆる高リスクAIシステム(健康、安全、基本的人権、環境、民主主義、選挙、法の支配に重大な危害をもたらす可能性があると判断されるシステム)は、基本的人権やEUの市場アクセス義務への影響を評価するテストを受けるなど、さまざまな要件を遵守する必要がある。

eltqxowexvjbnmywubkxiyj3ha.jpg
2023年9月1日にベルリンで開催された消費者向け技術見本市で、ロボットアームに搭載されたAIカメラ「Huenit」が展示された。写真:ロイター

一方、低リスクのシステムには、ユーザーが利用を検討できるよう AI 生成コンテンツにラベルを付けるなどの、より緩やかな透明性義務が課されることになる。

法執行におけるAI

法執行機関は、誘拐、人身売買、性的搾取の被害者を特定し、特定の差し迫ったテロの脅威を防ぐためにのみ、公共の場でリアルタイムの遠隔生体認証システムを使用することが認められている。

当局は、AI技術を使ってテロ、人身売買、性的搾取、殺人、誘拐、強姦、武装強盗、犯罪組織への参加、環境犯罪の容疑者を追跡することも許可される。

汎用およびプラットフォームAI(GPAI)システム

GPAI とその基礎モデルには、技術文書の作成、EU 著作権法の遵守、アルゴリズムのトレーニングに使用されたコンテンツの詳細な概要の公開などの透明性要件が適用されます。

潜在的にシステムリスクと大きな影響を持つGPAIを生み出す可能性があるカテゴリに該当するプラットフォームモデルには、一般的なモデル評価の実施、リスクのレビューと軽減、リバースエンジニアリングの実施、重大なインシデントの欧州委員会への通知、サイバーセキュリティの確保、エネルギー消費の報告が求められます。

owaad7543vnahei6k3ozfuuo5u.jpg
スイス・ジュネーブで開催されたグッド・グローバル・サミットに登場したロボット「Rmeca」。写真:ロイター

EU の統一基準が公表されるまで、GPAI は規制を遵守するために行動規範に依存する体系的なリスクにさらされています。

禁止されたAIシステム

禁止されている行為およびコンテンツには、 政治、宗教、哲学的信念、性的指向、人種などの機密特性を使用する生体認証分類システムが含まれます。

インターネットや CCTV 映像から顔画像を非標的にスキャンして顔認識データベースを作成します。

職場や教育現場における感情認識

ソーシャル スコアリングは、社会的行動または個人の特性に基づいています。

AI システムは人間の行動を操作して自由意志を破壊します。

AIは、年齢、障害、 経済的または社会的状況による人間の弱点を悪用するために使用されます。

制裁

違反の内容と関与した企業の規模に応じて、罰金は750万ユーロ(800万ドル)または年間世界売上高の1.5%から始まり、3500万ユーロまたは世界売上高の7%までとなる。

(ロイター通信によると)

EU、人工知能規制で歴史的合意

EU、人工知能規制で歴史的合意

欧州議会と加盟国間の合意により、人工知能(AI)、ソーシャルメディア、検索エンジンが規制される。
EU、スマートデバイス保護法で合意

EU、スマートデバイス保護法で合意

11月30日、EU議員らは、デジタル要素を備えた製品がこの市場で流通する前にサイバーセキュリティの保証を義務付ける、接続デバイスを保護するための提案について暫定合意に達した。
EUはハイテク大手に厳しい姿勢、違反企業を解体すると警告

EUはハイテク大手に厳しい姿勢、違反企業を解体すると警告

欧州連合(EU)は、厳しい制裁措置によって大手テクノロジー企業の管理を強化し続けており、世界収益の10%~20%の罰金を科したり、規制に従わない企業を強制的に分割させたりすることもできる。