SGGP
AI規制を強化するため、欧州連合(EU)の主要議員らは、ChatGPTなどの生成型AIを抑制するための人工知能(AI)規制案のいくつかの修正案に同意した。
パナソニック コネクト株式会社は、日本国内の従業員がAIシステムを活用して生産性を向上できるよう支援しています。写真:日経アジア |
最初の完全な法律を期待する
5月11日に行われたAI規制法案の採決は、ChatGPTのようなAIツールを正式に規制する法律の成立に向けた新たな一歩となりました。欧州議会(EP)の消費者保護委員会と市民的自由委員会は、法案草案を承認し、EUにおけるAIの利用は規制されるべきであり、同時にこの分野におけるイノベーションを促進する必要があるという見解を改めて示しました。同時に、AIは人、社会、そして環境に貢献すべきであるという基本的人権を尊重しました。
2年間の議論を経て、EUで成立が見込まれるAI法は、公共の場での顔認識技術の使用(EU諸国間の対立を引き起こすと予測される)や、犯罪行為を予測するアルゴリズムを使用するツール、OpenAIのChatGPTなどの生成AIアプリケーション、生体認証チェックなどを禁止する条項が追加されているため、この技術を規制する最初の完全な法律となるだろう。したがって、これらのアプリケーションは、これらのツールの製品が人間ではなく機械によって作成されていることをユーザーに思い出させる通知を送信する必要がある。
この文書には、AIアプリケーションにおける高リスク領域を特定するための追加基準を求めるセクションも含まれており、これによりツール設計の範囲が制限されます。AIツールは、各ツールがもたらすリスクのレベルに応じて分類されます。これらのツールを使用する政府および企業は、リスクのレベルに応じて異なる義務を負うことになります。
草案は来月、欧州議会本会議に提出され、その後EU加盟国に送付され、審査と最終決定が行われる予定です。欧州委員会(EC)が提案したリストには、重要インフラ管理、 教育、人材、治安、移民といった分野におけるAIの活用事例が既に含まれていますが、欧州議会議員らは、安全保障、健康、基本的人権に対する脅威を明確にするための基準値の追加も求めています。
日本が主導権を握る
多くの国々は、国内産業の衰退を防ぎながら国民のプライバシーの懸念に対処するという問題に対する解決策も模索している。
アジアでは、AI開発を導く枠組みを構築するため、日本政府初のAI戦略会議が開催されました。岸田文雄首相は会議において、「AIは経済社会を良い方向に変える可能性を秘めている一方で、リスクも存在します。この両方の問題に適切に対処していくことが重要です」と述べました。
AI技術の活用は、産業競争力の強化や社会全体の課題解決に貢献する一方で、AIは合理的に活用され、利用者のリスクを最小限に抑える必要があります。しかしながら、これまでの議論は主に技術的な側面に焦点を当ててきました。日本の専門家は、今後はビジネスや法律といった分野の参加も得て、より幅広い視点に基づいた議論を行う必要があると訴えています。日経アジアは、セキュリティ、プライバシー、著作権といった重要な問題を含む汎用AIの利用規制に注力する一方で、国内のAI開発レベルをいかに向上させていくかが日本が直面する課題だと指摘しています。
AIは日常生活に混乱をもたらし始めており、偽の画像や動画、ロボットが生成したテキストは、国家安全保障から誤情報に至るまで、幅広い懸念を引き起こしています。主要7カ国(G7)のデジタル・テクノロジー担当大臣は、今年末までに汎用AIの開発と利用に関するガイドラインを策定することで合意しました。日本は2023年にG7議長国に就任することから、岸田首相は、AIの可能性を最大限に活かし、そのリスクに対処するための国際ルール策定を主導していくと述べています。
日本と同様に、ホワイトハウスも先週、7つのAI研究センターを設立し、この先進技術の利用に関するガイドラインを公表するために1億4000万ドルを投資すると発表しました。その目的は、リスクを最小限に抑えつつAIに基づくイノベーションの発展を阻害しないルールを構築することです。ジョー・バイデン米大統領は、科学技術諮問委員会で演説し、AIは疾病や気候変動といった非常に困難な課題への対処に役立つ可能性がある一方で、社会、経済、国家安全保障への潜在的なリスクにも対処する必要があると強調しました。テクノロジー企業には、製品を市場に出す前に安全性を確保する責任があります。
[広告2]
ソース
コメント (0)