VNAによると、日本は、AIを悪用して偽のコンテンツを作成したり、虚偽の情報を拡散したりするといったリスクに対応するため、人工知能(AI)の安全基準の策定を任務とする新たな機関を設立する。
これは12月21日に東京で開催されたAI戦略会議において岸田文雄首相が発表したもの。
新しい組織は、経済産業省(METI)情報処理推進機構(IPA)のもと、「AI Safety Institute」(AISI)という名称で2024年1月に設立される予定です。
AISIはAIとサイバーセキュリティの専門家で構成され、AIを開発する企業に対する安全性評価基準の設定とAIの誤用リスクの検証を担当します。
また、会議ではAI協議会が国内企業に対し、AIの開発や活用において人を中心とするよう求める10原則を盛り込んだ「AIガイドライン」についても議論した。
計画通り、「AIガイドライン」は2024年3月に正式承認され、開発者、AIサービスプロバイダー、ユーザーに適用されます。
「AIガイドライン」の原則は、国際的なルールを策定するための主要7カ国(G7)の「広島AIプロセス」に基づいています。
本ガイドラインは、人間中心の原則に基づき、企業に対し、人権と多様性の尊重、誤情報対策の実施、そして人間の意思決定や感情を悪意を持って操作するAIサービスの開発、提供、利用を一切行わないことを求めています。さらに、プライバシーの保護、公平性、セキュリティ、透明性の確保といった原則も盛り込まれています。
10月初旬、英国のリシ・スナック首相は、新しい形態のAIを試験・評価・検証するための世界初のAI安全研究所を設立すると発表しました。この研究所を通じて、規制当局は各新モデルの能力を把握し、偏見や誤情報といった社会的危害から、最も深刻なリスクに至るまで、あらゆるリスクを特定できるようになります。
その後まもなく、ジーナ・ライモンド米国商務長官は、人工知能の安全性と信頼性を確保するため、米国国立標準技術研究所と協力してAI安全研究所を設立すると発表した。
近年、人工知能ツールはテクノロジー投資の波の中で新たなブレークスルーを生み出しました。しかし、テクノロジー専門家は、人工知能はデータ、アルゴリズム、そしてアプリケーションに関する信頼性のレベルに関する懸念など、多くのリスクと課題をはらんでいると指摘しています。
したがって、人工知能のメリットを最大限に引き出すには、この技術が責任を持って開発され、使用されているという信頼を国民に与えることが重要です。
最近、米国、英国、ドイツ、イタリア、チェコ共和国、ポーランド、オーストラリア、チリ、シンガポールなど18か国が、悪用リスクを回避するために設計段階から安全な人工知能システムを構築することを企業に奨励する協定に署名しました。
これは、産業や社会全体にますます大きな影響を与えている人工知能の発展を方向づけるための、世界各国政府による一連の取り組みの中で最新のものとみられている。
ミンホア(t/h)
[広告2]
ソース
コメント (0)