
ラム氏によれば、 AI が情報の偽造や操作、詐欺、社会的分断を引き起こすために悪用され、労働力が代替され不平等が拡大し、文化的および知的価値観が歪められ、国家安全保障、防衛、デジタル主権が脅かされるなど、非常に現実的かつ現在存在するリスクがあります。
一番心配なのは、 ラム氏 恐れ AIが人間の命令で何を行うかではなく、人間の制御から外れた時に何ができるかが重要です。 科学的な観点から見ると、AIが独自の目標を設定したり、人間の利益に沿わない方法でタスクを解釈したり、さらには人間を「リスク」と見なしたりする日が来たら、どうなるでしょうか?人間を最適化アルゴリズムにおける単なる「変数」と見なす超知能システムが出現する可能性はあるでしょうか?
「 AIが人間を支配するというSF小説は、私たちを怖がらせるためではなく、最初から健全な倫理観に基づいて設計されていなければ、人工的な進歩は本来の目的を裏切る可能性があることを私たちに思い出させるためです。そして歴史は、どんな技術も制御不能になれば、人類が大きな代償を払わなければならない結果をもたらす可能性があることを証明しています」とラム氏は述べた。
こうしたリスクは、AI が正しい方向に、そして社会にとって安全に発展するために、十分に強力な法的枠組みを確立することが緊急に必要であることを示しています。 したがって この法律を真に完全で先見性のあるものにするために、ラム氏は重要な追加事項を提案した。AIを「生まれたばかりの人間」とみなすのだ。知的な存在でありながら、まだ無垢な存在である。 法律を知らず、倫理や礼儀作法を理解しておらず、文化的価値観を持たず、教えられなければ善悪の区別がつかない。 これを念頭に置き、AIを新興の存在として捉えるならば、私たちの責任は、AIを制御するだけでなく、子供に標準的な人間的価値観を教えるのと同じように、最初からAIに教えることにあります。そして、これはこの法律において単なる勧告ではなく、必須規定となるべきです。
から そこには、 林氏は国会に対し、この法律に次のような法的原則を追加するよう提案した。 ベトナムで運用されるAIソフトウェアは、国内外の組織が開発したものか否かを問わず、標準的な人間基盤データベースを搭載する必要があります。このデータベースには、AIにベトナムの法律を理解させ、ベトナムの倫理基準、文化、そして良き伝統をAIに教え、善悪や標準を識別する能力をAIに教えるのに十分な情報が含まれていなければなりません。行動の限界は、人間へのリスクを特定するための規則を超えてはなりません。そして最も重要なのは、この基盤データベースがAIの行動を制御する上で常に絶対的な優先順位を持つようにすることです。他のアルゴリズムや学習データによって上書き、置き換え、または無効化されてはなりません。これは、AIが道を誤らないようにするための法的および技術的な「黄金の輪」です。
この方向性を効果的に実現するため、ラム氏は科学技術省が主導的に「Being Vietnamese(ベトナム人であること)」データベースプラットフォームを構築し、統一・標準化され、継続的に更新され、AI開発者に必須要件として提供することを提言しました。政府は、ベトナムのAIが外国のモデルに依存せず、ベトナムの価値観に基づいて訓練されることを保証するため、強力な国家コンピューティングインフラを構築します。国家AIテストセンターを構築し、逸脱行動を迅速に評価し、高リスクモデルを制御し、限界を超える兆候があれば速やかに介入します。社会全体でAI教育を推進し、人々、企業、特に公共部門がAIを適切に識別、活用、監視する能力を身に付けられるように支援することに重点を置きます。
同時に、世界を見渡すと、人類はあまりにも急速にAI時代へと突入しつつあり、世界的な法的枠組みはまだ追いついていません。サイバー犯罪防止に関するハノイ条約と同様に、世界はAIの発展に伴うリスクの暴走を防ぎ、人権を保護するために、共通の基準を確立するためのAI安全に関する国際条約を必要としています。ベトナムは、積極的かつ慎重で人道的なビジョンを持ち、このイニシアチブを提案し、主導する上で間違いなく主導的な役割を果たすことができます。
「今日の人工知能法は、単なる技術法ではなく、未来の法律です。国会が国民に約束したことです。私たちは技術を開発しますが、制御を失ってはなりません。イノベーションを促進しますが、リスクを制御不能にさせません。そして、ベトナムの価値観に基づいて人工知能を育成し、ベトナムの人々に貢献します」とラム氏は述べた。
出典: https://daidoanket.vn/hay-coi-ai-nhu-mot-con-nguoi-moi-sinh-va-day-ai-nhu-mot-dua-tre.html






コメント (0)