他国の経験から、AIの開発、展開、応用におけるリスク管理を含むAI関連の問題を規制するには、法的規制だけでは不十分で、倫理原則、行動規範、業界の技術ガイドラインなど、「ソフトロー」と呼ばれる他の政策ツールを適用する必要があることがわかります。
過剰な管理を避けるために、管理措置はリスクのレベルに応じて適切なものでなければなりません。最高レベルのリスクに対しては、厳格で強制的な法的規制が必要となります。次のレベルのリスクでは、法的要件は「より緩やか」なものになるはずです。リスクが低い場合は、ガイドライン、技術標準、自主的な行動規範を適用するだけです。 AI リスク管理は、主体が持つ権力の範囲とレベルに基づいて行われるべきである。国家やビッグテックのような、より大きな権力を持つ組織は、より厳しい管理を受ける必要があります。
AI が社会や人間にもたらす機会とリスクは、研究、開発、展開、応用など、AI システムのライフサイクルの各段階で調整および対応できます。 AI システムのライフサイクルでは、AI 開発者、実装/アプリケーション実装者、エンドユーザーといった各主体の責任を明確かつ具体的に定義する必要があります。
AIに関する一般的な法的枠組みを構築するには、主に以下のような内容が必要です。まず、このテクノロジーに関するその他の規制内容の出発点として、AI、AI システム、AI モデルの明確な概念を提供します。次に、 AI システムのライフサイクル全体の基礎として人、人間の価値観、人権を考慮すること、透明性、説明責任、信頼性など、AI ガバナンスの中核となる原則を特定します。 3 番目に、リスク レベルと、そのリスク レベルに適した対策を特定します。 4 番目に、 AI システムのライフサイクルにおける関連エンティティの具体的な責任を特定します。
特に、AI システムは、個人または集団の生命や安全に脅威を与える場合には制限されなければなりません。年齢、性別、宗教、または社会的スコアに基づいて不利な扱いを受けるような差別を引き起こす AI システムは禁止されるべきです。共通の法的枠組みでは、偏見や差別的な結果を防ぐために、AI の意思決定プロセスにおけるアルゴリズムの透明性を義務付ける必要があります。採用アルゴリズムの例。
一般的な法的枠組みに加えて、AI に関連する技術的および専門的な問題に関するより具体的な規制を規定する法令や通達などの法的文書を発行する必要があります。たとえば、透明性、公平性を確保し、差別を回避するためにアルゴリズムを調整するなど。顔認識技術の使用を規制する;一部の分野での AI の使用には、採用、使用、労働評価など多くの潜在的なリスクが伴います。
AI の分野横断的な性質を考慮すると、AI 規制に対する断片的なアプローチは避けるべきです。さまざまな機関を調整するには、政策がさまざまな幅広い利益と調和するように、代表的で効果的であり、さまざまな見解や観点のバランスをとる学際的なメカニズムを確立することが考えられます。 AI システムのライフサイクルの最初から、多様な社会的利害関係者が関与する必要があります。技術専門家や企業だけでなく、法律専門家、人権専門家、コミュニティ、社会組織、AIシステムの影響を受ける可能性のあるその他のグループの代表者も含まれます。
AI規制政策の公布は、社会正義を目指し、権利と利益を確保し、障害者、少数民族、貧困者、女性、子供などの脆弱なグループを巻き込む必要がある。これらの脆弱なグループには特別な保護措置が必要です。脆弱性を悪用し、心理的または行動的な危害を引き起こす可能性のある AI システムは、厳しく規制される必要があります。これには、AI テクノロジーが脆弱な個人を操作したり、彼らの利益に反する行動を強要したりしないようにすることが含まれます。
出典: https://daibieunhandan.vn/kiem-soat-rui-ro-cua-tri-tue-nhan-tao-mot-cach-cong-bang-post411511.html
コメント (0)