草案によれば、高リスク AI システム カタログは、特定のユース ケースごとにリスク分類基準を評価し、実装の明確さ、透明性、実現可能性を確保することに基づいて構築されます。
AI システムは、その出力が組織や個人の権利、義務、正当な利益に関連する決定に大きな影響を与える基礎または要素として使用される、テクノロジー、アルゴリズム、モデルのみに基づくのではなく、目的と使用コンテキストによって決定される、エラーや誤動作が発生した場合に深刻で回復不能な結果をもたらすリスクがある、という原則を満たす場合に分類されます。
また、導入範囲が広く影響が大きいシステムや、現行の法規制では管理しきれないリスク、一律に管理義務を適用できる可能性なども検討対象となります。
高リスクの人工知能システムのカテゴリは、特定のユースケースを識別するためのリスク分類基準の評価に基づいて決定されます。
草案では、分類の基礎として次の 5 つの基準グループが示されています。
まず、人権や組織および個人の正当な権利と利益に影響を与えます。 これには、生命の権利、健康保護の権利、個人の自由の権利、プライバシーの権利、平等および差別禁止の権利、必須サービスを受ける権利、および法律で定められたその他の法的権利に直接かつ重大な影響を及ぼす可能性のあるシステムが含まれます。
第二に、安全、セキュリティ、公共の利益に関わるシステムとは、社会秩序や安全、サイバーセキュリティ、情報セキュリティに重大な影響を及ぼす可能性のあるシステム、国家安全保障を脅かすために悪用または操作されるリスクがあるシステム、または高リスクの製品や商品のセキュリティコンポーネントとして使用されるシステムのことです。
3番目は、使用分野と使用状況です。 下書き 医療、 教育、労働雇用、金融、信用、保険、交通、エネルギー、重要なインフラ、国家管理、司法などの重要な分野や社会生活に直接影響を与える分野、あるいは国家管理活動に役立ち公共サービスを提供する分野に導入されている AI システムには、特に注意を払う必要があります。
4番目は、自動化のレベルと人間による制御の役割です。これには、大きな影響力を持つ意思決定や推奨を行う自動化システムが含まれ、また、運用中にシステムを監視、介入、調整、停止する人間の能力も考慮されます。
第五に、利用者の範囲と影響の規模です。これは、直接的または間接的に影響を受ける人数、展開範囲、連鎖的な影響の可能性、そしてインシデント発生時または悪用時に修復が困難な長期的な影響の程度に基づいています。
上記の基準に基づいて、草案では次の 4 つのグループで構成される高リスク AI システムのリストを提案しています。
グループ I: 人権に影響を与える AI システム。
グループ II: 安全性とセキュリティに影響を与える AI システム。
グループ III: 公共の利益に密接に関連する重要な分野の AI システム。
グループ IV: 修復が困難な大規模な影響または結果をもたらす AI システム。
このリストの発行により、AIの開発と展開におけるリスクを管理、監視、制御するための重要な法的基盤が構築され、イノベーションの促進と個人、組織、社会の正当な権利と利益の保護のバランスが確保されることが期待されます。
完全な草案は現在、検討と決定のために管轄当局に提出する前に最終決定するための公聴会プロセスを経ている。
科学技術コミュニケーションセンター
出典: https://mst.gov.vn/de-xuat-danh-muc-he-thong-tri-tue-nhan-tao-co-rui-ro-cao-siet-quan-ly-cac-ung-dung-tac-dong-lon-den-xa-hoi-197260216132429727.htm






コメント (0)