12月10日午後、 国会は出席した代表者434名のうち429名(国会代表者総数の90.7%に相当)の賛成投票により、人工知能に関する法律を可決した。
人工知能法は全8章全35条から構成され、人工知能システムの研究、開発、提供、展開、利用、関連組織および個人の権利と義務、そしてベトナムにおける人工知能活動の国家管理を規制しています。国防、安全保障、暗号技術のみを目的とした人工知能活動は、この法律の対象外となります。

人工知能運用における4つの基本原則
最近国会で可決された法律によれば、人工知能活動は以下の4つの基本原則を遵守しなければならない。
国民を第一に考え、人権、プライバシー権、国益、公共の利益、国家の安全を確保し、憲法と法律を遵守します。
人工知能は人類に奉仕するものであり、人間の権威や責任に取って代わるものではありません。人工知能は、人間の制御を維持し、人工知能システムのあらゆる意思決定と行動に介入する能力、システムのセキュリティ、データセキュリティ、情報の機密性を確保し、システムの開発と運用を検査および監視する能力を確保します。
公平性、透明性、公正性、差別の禁止、個人や社会への危害のないことを確保し、ベトナムの倫理基準と文化的価値観を遵守し、システムの決定と結果に責任を持ちます。
環境に優しく、包括的で持続可能な人工知能の開発を促進し、エネルギー効率が高く、資源を節約し、環境への悪影響を軽減する人工知能技術の開発と応用を奨励します。
リスクに基づいて AI システムを分類および管理します。
人工知能法は、人工知能システムを高、中、低の3つのリスクレベルに応じて分類し、管理することを規定しています。
高リスク人工知能システムとは、組織や個人の生命、健康、正当な権利と利益、国家利益、公共の利益、国家安全保障に重大な損害を与える可能性のあるシステムのことです。
中程度のリスクの人工知能システムとは、対話するエンティティが人工知能システムであること、またはそれが生成するコンテンツであることをユーザーが認識できないため、ユーザーを混乱させたり、影響を与えたり、操作したりする可能性があるシステムです。
残りの人工知能システムはリスクの低いものです。
人工知能システムのリスク分類は、人権、安全、セキュリティへの影響レベル、システムの使用領域(特に重要な領域または公共の利益に直接関連する領域)、ユーザーの範囲、システムの影響の規模などの基準に基づいて決定されます。

人工知能運用における禁止行為
人工知能法では、人工知能活動における禁止行為も規定されており、具体的には以下のとおりです。
人工知能システムを悪用または乗っ取って違法行為を行い、組織や個人の正当な権利と利益を侵害すること。
以下の目的で人工知能システムを開発、提供、展開、または使用すること: 法律で禁止されている行為を行うこと。偽造または模造された実在の人物や出来事を利用して、人間の認識や行動を故意かつ組織的に欺いたり操作したりして、人権や正当な利益に重大な危害を加えること。子供、高齢者、障害者、少数民族、公民能力が損なわれた、または制限されている人々、認知障害や行動制御の問題を抱える人々などの社会的弱者の弱点を利用して、自分自身や他人に危害を加えること。国家の安全保障、公共の秩序、社会の安全に重大な危険をもたらす可能性のある偽造コンテンツを作成または配布すること。
データ、個人データ保護、知的財産、サイバーセキュリティに関する法律に違反して、人工知能システムの開発、トレーニング、テスト、または運用を目的としたデータの収集、処理、または使用。
本法に規定されている人工知能システムを監視、介入、制御するための人間のメカニズムを妨害、無効化、または歪曲すること。
開示、公表、または説明が必要な情報を隠蔽すること。人工知能操作において必須の情報、ラベル、または警告を消去または偽造すること。
人工知能システムに関連する研究、テスト、評価、または検証活動を悪用して、法律に違反する行為を行うこと。
出典: https://nhandan.vn/cam-su-dung-he-thong-ai-tao-noi-dung-gia-mao-gay-nguy-hai-an-ninh-quoc-gia-post929261.html






コメント (0)