科学技術省によると、世界の一般的な傾向に倣い、人工知能システムは、人々やコミュニティが直面する困難な問題を支援し解決することにより、人々、社会、そしてベトナム経済に大きな利益をもたらすと評価されています。その過程では、人工知能の開発と利用のプロセスにおけるリスクを最小限に抑え、関連する経済的、倫理的、法的要素とのバランスをとるための研究と対策が必要です。そのため、専門機関は、たとえ拘束力のない柔軟な規制であっても、方向性を示す基準やガイドラインを研究・開発する必要があります。
ガイドラインでは、科学技術省が人工知能システムの責任ある研究開発のための9つの原則を定めている。
まず、協力の精神でイノベーションを促進します。開発者は、システムの多様性を考慮して自社の人工知能システムと他の人工知能システム間の接続性と相互運用性を考慮し、システムの利点を高めるとともに、調整を強化してリスクを制御する必要があります。
第二に、透明性:この原則に合致するAIシステムは、多くの場合、ユーザーまたは関連する第三者の生命、身体、プライバシー、財産に影響を与える可能性のあるシステムです。この場合、開発者は、システムの入力と出力を明確に識別できること、そして適用される技術の特性とその利用方法に基づいた説明可能性に留意し、ユーザーを含む社会の信頼を確保する必要があります。
3つ目は、制御可能性です。システムの制御可能性に関連するリスクを評価するために、開発者はシステムが関連する技術要件と標準を満たしているかどうかを事前に評価する必要があります。リスク評価方法の一つとして、実用化前にセキュリティと安全対策を講じた別の環境でテストを行う方法があります。
4番目は、安全原則です。開発者は、人工知能システムが仲介者を通じてもユーザーや第三者の生命、身体、財産に危害を及ぼさないことを保証する必要があります。
第 5 に、セキュリティの原則: 開発者は、ドキュメントや指示に従い、規定どおりに情報セキュリティ対策を実施するだけでなく、システムの信頼性と物理的な攻撃や事故に対する耐性、機密性、完全性、システムの情報セキュリティに関連する必要な情報の可用性などの点にも注意を払う必要があります。
6. プライバシー:開発者は、AIシステムがユーザーまたは第三者のプライバシーを侵害しないことを保証する必要があります。プライバシーには、空間プライバシー(私生活における安心感)、情報プライバシー(個人データ)、通信の機密性が含まれます。開発者は、最新の規制とガイドラインを適用する必要があります。プライバシーに関する国際標準とガイドラインも参照できます。
開発者は、プライバシーリスクとプライバシーへの影響について事前評価を実施する必要があります。システム開発プロセス全体を通して、適用される技術の特性に応じて可能な限り適切な対策を講じ、実用化時にプライバシー侵害が発生しないようにする必要があります。
第七に、人権と尊厳の尊重:人間が関与する人工知能システムを開発する場合には、開発者は関係する個人の人権と尊厳を尊重するよう細心の注意を払わなければなりません。開発者は、適用する技術の特性に応じて可能な限り、システムの学習時にデータの偏りによる差別や不公平が生じないよう、対策を講じるべきです。
開発者は、システムがベトナムの基本原則(愛国心、連帯、自立、忠誠心、誠実さ、責任、規律、創造性などの価値観など)に従って人間の価値観や社会倫理に違反しないように注意する必要があります。
8、ユーザーサポート:ユーザーをサポートするために、システム開発者は、ユーザーが意思決定を行い便利に使用できるように、タイムリーで適切な情報を提供するための既成のインターフェースを作成すること、社会的弱者(高齢者、障害者)がシステムをより簡単に使用できるようにするための対策を実施することなどの点に注意を払う必要があります。
9. 説明責任:開発者は、ユーザーの信頼を確保するために、開発するシステムに対して説明責任を負う必要があります。具体的には、ユーザーがシステムを選択し、利用する際に役立つ情報を提供する必要があります。さらに、システムの社会的受容性を高めるために、開発者はより多くのことを行う必要があります。開発するシステムの技術的特性、アルゴリズム、セキュリティメカニズムなどに関する情報と説明をユーザーに提供し、利害関係者の意見に耳を傾け、対話を行う必要があります。
[広告2]
出典: https://nhandan.vn/nghien-cuu-phat-trien-cac-he-thong-tri-tue-nhan-tao-co-trach-nhiem-post814609.html
コメント (0)