5月9日、国会議員らは議場でデジタル技術産業法案のいくつかの物議を醸す内容について議論した。特に、人工知能(AI)に関する規制については、実現可能性や国際慣行との整合性を確保するために、引き続き多くの意見が寄せられています。
討論セッションに参加したド・ゴック・ティン代表(カインホア代表団)は、法案第3条第10項のAIの定義は技術の本質を正確に反映しておらず、国際的なアプローチと一致していないと述べた。
彼は、多くの国や欧州連合が採用している経済協力開発機構(OECD)の定義を参照することを提案した。したがって、AI は「入力データから推論して、物理環境または仮想環境に影響を与える予測、推奨、または決定の形式で出力を生成することにより、明示的または暗黙的な目標を達成することを目指す機械ベースのシステム」として理解される必要があります。
ティン代表は、適切な定義を提供することが、効果的な管理規制を構築するための重要な基礎となると同時に、実際の技術の適用を促進することでもあると強調した。
人工知能システムの分類(第46条)に関して、カインホア代表団は、現行の規制はEUのAI法と類似点があるものの、不明確な点もあると評価した。 EUによれば、AIは主にリスクのレベルに応じて「許容できない」から「最小限」まで分類されます。しかし、ベトナムの草案では「高影響AIシステム」のグループが追加されており、これは「高リスク」グループと重複したり、矛盾したりする可能性がある。
「この分類が他の規定の具体的な責任と結びついていなければ、実施が困難になり、一貫性が欠けることになる」とティン氏は述べた。同時に、分類の理念を明確にし、規制が高リスクのAIシステムにのみ適用されるようにし、低リスクのシステムへの不必要な締め付けを避け、イノベーションを支援し、テクノロジーの潜在能力を効果的に活用することが推奨されます。
ハウザン省代表団のレ・ティ・タン・ラム氏は、規則の不明確さについて同様の見解を示し、第46条第1項の高リスクAIシステムの定義は依然として一般的なものであり、影響レベル、ユーザー数、データ容量など、リスクを判断するための具体的な基準を示していないとコメントした。 「具体的な基準がなければ、実際に実施するのは難しい」と林氏は語った。
林氏はまた、テクノロジーに関する過度に詳細な規制は不要かもしれないと指摘し、代わりにテクノロジーの使用行動の管理に重点を置くべきだと述べた。特に、第48条におけるAI開発者の責任に関しては、オープンソース技術の文脈において、一部の義務がこの主題に過大な負担をかけていると考えている。
ランソン代表団のルー・バ・マック議員は、リスクレベルが高い、または社会に大きな影響を与えるAIシステムは、使用前に国が指定または承認した独立機関による検査と評価を受けることを義務付ける規制を追加することを提案した。
現在、法案第44条ではAIの開発と利用に関する6つの原則のみが概説されており、実施を指導する省庁と部局が割り当てられている。第46条は、AIシステム(高リスク・高影響システムを含む)の管理についても規定しているが、導入前の独立した審査メカニズムについては明確に規定していない。
第46条第5項では政府が詳細な規制を定めるとされているものの、マック氏によると、特に現在のデジタル変革の状況において、AIを使用する際に透明性と国家管理の有効性を高め、人々と企業の安心感を生み出すためには、法律に独立した検査に関する明確な原則がなければならないという。
第47条第1項に関して、草案は、人間と直接対話するAIシステムは、ユーザーがAIと対話していることを「明らかに知っている」場合を除き、ユーザーに通知しなければならないと規定しています。
ランソン代表団によると、この表現は「明らかに知っている」というのは各人のレベル、経験、状況によって左右される主観的な概念であるため、不明確だという。テクノロジーに詳しい人は AI を簡単に認識できますが、テクノロジーに詳しくない年配の人は認識できません。したがって、この表現は AI の本質を隠蔽するために使用され、ユーザーに損害を与える可能性があります。
そこでマック氏は、人間と対話するAIシステムは、AIと対話していることをユーザーに明確かつ容易に通知しなければならないという方向で規制を改正することを提案した。この通知はデフォルトで有効にされ、ユーザーが積極的に無効にすることを選択しない限り、自動的に非表示または無効にされることはありません。
出典: https://doanhnghiepvn.vn/cong-nghe/de-xuat-chi-siet-chat-ai-co-rui-ro-cao-tranh-can-tro-doi-moi-sang-tao/20250510094811591
コメント (0)