EU加盟国はこれまで、公共の場での顔スキャン技術の使用を特定の法執行状況に限定することで合意しており、これは欧州議会および欧州委員会との交渉において各国にとっての「越えてはならない一線」となっている。
中道右派の一部議員は、生体認証追跡技術を使って行方不明の子どもを探したりテロ攻撃を防いだりできる例外を提案したが、これも本会議での採決では承認されなかった。
議員らはGPT-4のような生成AIプラットフォームに追加措置を課すことで合意し、OpenAIやGoogleなどの企業にリスク評価を実施し、AIモデルのトレーニングに使用された著作権で保護された素材を開示することを義務付けた。
EUの規制アプローチはリスク評価に基づいています。テクノロジーそのものよりもAIの利用を規制することに重点を置いており、ソーシャルスコアリングなどの一部のアプリケーションを全面的に禁止し、「高リスク」な状況におけるAIの利用に関する基準を設けています。
AI法案の全文は6月14日に採択され、EU議会、加盟国、欧州委員会による「三者」による議論への道を開いた。
欧州委員会は、AI法を早ければ2026年に企業に適用することで、年末までに合意に達することを望んでいる。一方、一部の当局者は、G7諸国に加え、インドとインドネシアにも適用される企業向けの自主的な「行動規範」の策定を推進している。
EUによる人工知能(AI)規制の強化は、EUの規則に違反すると年間売上高の最大6%の罰金が科せられる可能性があるため、今後10年間で1兆3000億ドル以上の価値があると推定されるAI分野に大きな影響を与える可能性がある。
(ブルームバーグによると)
[広告2]
ソース
コメント (0)