다른 국가의 경험에 따르면, AI 개발, 배포, 적용 시 위험 관리를 포함한 AI 관련 문제를 규제하려면 법적 규제만으로는 충분하지 않으며, 윤리 원칙, 행동 강령, 업계의 기술 지침 등 '소프트 법률'이라 불리는 다른 정책 도구를 적용해야 합니다.
과도한 통제를 피하기 위해 통제 조치는 위험 수준에 적합해야 합니다. 가장 높은 수준의 위험에 대해서는 엄격하고 의무적인 법적 규제가 필요합니다. 위험 수준이 높아지면 법적 요구 사항이 "더 완화"되어야 합니다. 위험이 낮은 경우에는 간단히 지침, 기술 표준 및 자발적 행동 강령을 적용하면 됩니다. AI 위험 관리의 기본은 주체가 보유한 권한의 범위와 수준에 따라야 합니다. 국가나 빅테크 기업 등 더 많은 권력을 가진 기관은 더욱 엄격한 통제를 받아야 합니다.
AI가 사회와 인간에게 미치는 기회와 위험은 연구, 개발, 배포, 적용을 포함한 AI 시스템 수명 주기의 각 단계에서 조정되고 대응될 수 있습니다. AI 시스템의 수명 주기에서는 각 주체, 즉 AI 개발자, 구현/애플리케이션 구현자, 최종 사용자의 책임을 명확하고 구체적으로 정의하는 것이 필요합니다.
AI에 대한 전반적인 법적 틀을 구축하는 데에는 다음과 같은 주요 내용이 필요하다. 첫째 , 이 기술에 대한 기타 규제 내용의 시작점으로 AI, AI 시스템, AI 모델에 대한 명확한 개념을 제공합니다. 둘째, AI 거버넌스의 핵심 원칙을 파악합니다. 여기에는 사람, 인간적 가치, 인권을 AI 시스템의 전체 수명 주기의 기반으로 삼고, 투명성, 책임성, 신뢰성을 확보하는 것이 포함됩니다. 셋째, 위험 수준을 파악하고 위험 수준에 적합한 조치를 취합니다. 넷째, AI 시스템 수명 주기에서 관련 기관의 구체적인 책임을 파악합니다.
특히, AI 시스템은 개인이나 집단의 생명이나 안전에 위협을 가하는 경우 제한되어야 합니다. 연령, 성별, 종교 등에 따른 차별을 유발하거나, 사회적 점수에 따라 불리한 처우를 하는 AI 시스템은 금지되어야 합니다. 공통 법적 틀에서는 편견과 차별적 결과를 방지하기 위해 AI 의사결정 과정에서 알고리즘 투명성을 요구해야 합니다. 채용 알고리즘 예시.
일반적인 법적 틀과 함께 AI와 관련된 기술적, 전문적 문제에 대한 보다 구체적인 규정을 제공하는 법률 문서, 가능하다면 법령 및 회람문을 발행하는 것이 필요합니다. 예를 들어, 투명성, 공정성을 보장하고 차별을 피하기 위해 알고리즘을 조정합니다. 얼굴 인식 기술의 사용을 규제합니다. 일부 분야에서 AI를 사용하면 채용, 활용, 노동 평가 등 많은 잠재적 위험이 따릅니다.
AI의 교차적 특성을 감안할 때, AI 규제에 대한 단편적인 접근 방식은 피해야 합니다. 다양한 기관을 조정하기 위해서는 대표적이고 효과적이며 다양한 견해와 관점을 균형 있게 조정하는 학제간 메커니즘을 구축하여 정책이 다양한 광범위한 이익과 조화를 이루도록 하는 것이 고려될 수 있습니다. 다양한 사회적 이해 관계자가 AI 시스템 수명 주기의 초기부터 참여해야 합니다. 기술 전문가, 기업뿐만 아니라 법률 전문가, 인권 전문가, 지역 사회 대표, 사회 단체 및 AI 시스템의 영향을 받을 수 있는 다른 그룹도 포함됩니다.
AI 규제 정책의 공표는 사회 정의를 목표로 해야 하며, 권리와 혜택을 보장하고 장애인, 소수 민족, 빈곤층, 여성, 어린이 등 취약 계층을 참여시켜야 합니다. 이러한 취약 계층에게는 특별한 보호 조치가 필요합니다. 취약점을 악용하여 심리적 또는 행동적 피해를 일으킬 수 있는 AI 시스템은 엄격하게 규제되어야 합니다. 여기에는 AI 기술이 취약한 개인을 조종하거나 강요하여 자신의 이익에 반하는 행동을 하도록 하지 않도록 보장하는 것이 포함됩니다.
출처: https://daibieunhandan.vn/kiem-soat-rui-ro-cua-tri-tue-nhan-tao-mot-cach-cong-bang-post411511.html
댓글 (0)