AI活動には倫理的な規制が必要です。
11月21日午前、 科学技術環境委員会(KH、CN&MT)を代表して、人工知能(AI)法プロジェクトの見直しに関する報告書を提出した委員会のグエン・タン・ハイ委員長は次のように述べた。「法案第27条は、まず、人間の尊重、透明性、公平性、非危害性、プライバシーの保護など、国際慣行に従った基本原則を定めています。」
しかし、科学技術環境委員会は、多くの国では人工知能に関する政策策定のプロセスは倫理的枠組みと指針の公布から始まり、その後実践を評価して最終的に立法化へと進むことが多いことを明らかにした。
これを踏まえ、科学技術環境委員会は、起草機関に対し、 政府が詳細を規定するための倫理に関する一般原則を検討・補足するよう提案した。この原則には、人間の尊重、公平性、安全性、透明性、説明責任、持続可能な開発といった原則を含む、ユネスコとOECDの価値観への言及が含まれる。また、企業がこの枠組みに沿って独自の社内AI倫理規範を策定し、規定に従って国家管理機関に公開することを奨励する。

展示A80で展示されたヒューマノイドロボットの模型を楽しむ来場者。写真はイメージです。
同時に、「研究からシステム利用までのプロセス全体を通じてAIシステムの倫理的・社会的影響に対するステークホルダーの説明責任」の原則の追加を研究し、倫理規則(推奨)と法的義務(義務)の関係を明確にする。
さらに、科学技術環境委員会によると、法案第28条は公共部門の倫理的責任のみを規定しているが、民間部門(医療、金融、 教育など)におけるAIの応用も同様の社会的・倫理的影響を及ぼす可能性がある。したがって、起草機関は、法案の規定の包括性を確保するために、民間部門における倫理的責任に関する規定の追加について調査・検討を行うべきである。
子どもを守るための具体的な規制を追加する
科学技術環境委員会のグエン・タン・ハイ委員長は、法律プロジェクトのレビューに関する報告書の中で次のように明確に述べています。 「子供などの脆弱な対象者にとって、AIには次のような懸念すべきマイナス面もあります。答えを見つけたり演習を解いたりするのにAIに頼りすぎると、子供は自主的に考え、分析し、創造する能力を練習する機会を失うリスクがあります。逸脱行動を起こしがちです。AIを真の友人と間違えて、不適切または危険なAIからのアドバイスに基づいて行動する可能性があります。操作されたり、詐欺に遭ったりする可能性があります。」

人工知能法には、子供たちをAIの負の側面から守り、子供たちが安全かつ健全な方法でAIを利用できるように導くための別個の規制が必要である。説明写真
科学技術環境委員会のグエン・タン・ハイ委員長は次のように述べた。「イタリアのAI法では、14歳未満の人は両親または保護者の同意を得た場合のみAIを使用できると規定されている。最近の提案によると、EUでは、親の同意なしにAIを使用するには16歳以上のユーザーがいる必要がある。」カリフォルニア州(米国)のAIチャットボット管理法では、AIプラットフォームは18歳未満のユーザーに対し、3時間ごとにチャット相手が人間ではなくチャットボットであることを明示的に通知する必要があると規定されている。」
その上で、委員会は、起草機関が、子供たちをAIのマイナス面から守り、子供たちが安全で健全な方法でAIを使用するように導き、子供たちのAIに対する意識を監視し高める上での親と学校の役割と責任を促進するための具体的な規制を検討し、補足することを勧告する。
出典: https://phunuvietnam.vn/can-co-che-de-bao-ve-tre-em-truoc-cac-mat-trai-cua-ai-20251121112842757.htm






コメント (0)