인공지능(AI)과 관련하여 국회는 AI 규제 조항을 포함한 디지털 기술 산업법을 제정했습니다. 이는 AI 개발 및 적용을 위한 기본적인 법적 토대를 마련해 주었습니다. 그러나 이러한 규정만으로는 AI의 연구, 개발, 배포 및 활용을 촉진하고 완전한 AI 생태계를 구축하기에 충분한, 포괄적이고 개방적인 법적 틀을 제공하기에는 아직 부족합니다.
더 나아가, 인공지능 시스템의 위험을 분류하고 관리하는 메커니즘, 특히 고위험 인공지능 시스템에 대한 시험, 허가 및 모니터링 메커니즘, 그리고 우수한 인공지능 인재를 양성하고 유치하기 위한 메커니즘과 정책이 부족합니다. 결의안 제57-NQ/TW호는 "데이터를 주요 생산 수단으로 삼고" "데이터 경제 와 데이터 시장을 발전시켜야 한다"고 명시하고 있지만, 현재 인공지능 모델 학습을 위한 데이터의 수집, 처리, 공유 및 활용은 많은 어려움에 직면해 있습니다. 국가 및 부문별 데이터베이스 간의 연결과 공유는 느리게 진행되어 대규모 인공지능 시스템 개발에 필요한 요건을 충족하지 못하고 있습니다.
인공지능(AI)이 피해를 발생시켰을 때 법적 책임을 물을 길이 없다는 점이 중요한 문제입니다. 이러한 법적 공백은 AI로 인한 피해 해결에 있어 가장 큰 난관 중 하나입니다. 자율주행차의 사고나 의료 진단 소프트웨어의 오진처럼 AI 시스템이 피해를 초래했을 때 누가 책임을 져야 할까요? 개발자, 제조업체, 사용자, 아니면 AI 시스템 자체일까요? 책임 소재에 대한 구체적인 규정이 없다면 AI를 사용하는 소비자와 기업 모두에게 상당한 위험이 될 수 있습니다.
더욱이, 인공지능의 급속한 발전은 비전통적인 안보 위험에 대한 우려도 불러일으키고 있습니다. 딥페이크 기술은 허위 정보 유포, 단체 및 개인 비방, 각종 사기 행위에 악용되고 있습니다. 이러한 상황에 대해 강력한 처벌이 수반되는 충분히 엄격한 법적 틀이 마련되지 않는다면 사회 불안을 야기할 수 있습니다.
정부가 현재 개발 중인 인공지능법안은 디지털 시대의 국가 역량을 강화하는 첨단 기술로서 인공지능을 중요하게 여기고 있으며, 이러한 비전을 실현하기 위해 다음과 같은 핵심 원칙을 준수하고 있습니다. 첫째, 인류를 최우선으로 생각하며, 인공지능이 인류를 대체하는 것이 아니라 인류에 봉사해야 한다는 최고 원칙을 바탕으로, 중요한 결정에 있어 인간의 감독이 이루어져야 한다는 점을 강조합니다. 둘째, 인공지능은 투명하고 책임감 있으며 안전해야 합니다. 셋째, 인공지능법은 위험 수준에 따라 인공지능 시스템을 관리하고, 국내 인공지능 개발 및 자립을 장려하며, 인공지능을 신속하고 지속 가능한 성장의 원동력으로 삼아야 합니다.
관리 효율성을 높이고 사용자 권리를 보호하기 위해, 법안 초안은 인공지능 관련 사고 관리 및 처리에 대한 책임을 명시하고 있습니다. 이에 따라 인공지능 시스템의 개발, 제공, 배포 및 사용에 관여하는 조직과 개인은 시스템 운영 중 안전, 보안 및 신뢰성을 보장하고, 인명, 재산, 데이터 또는 사회 질서에 해를 끼칠 수 있는 사고를 사전에 탐지, 예방 및 신속하게 해결할 책임이 있습니다.
인공지능 시스템에서 기술적 오작동, 결과 편차 또는 예상치 못한 동작이 발생할 경우, 개발자와 공급업체는 상황을 시정하기 위한 기술적 조치를 즉시 시행하고, 잠재적으로 유해한 시스템의 사용을 일시적으로 중단하거나 회수해야 하며, 관할 국가 관리 기관에 통보하고 조사 및 처리를 위해 협조해야 합니다. 시스템 구현자와 사용자는 발생한 사건을 즉시 기록하여 공급업체에 보고하고, 시정 과정에서 관련 당사자와 협력해야 합니다. 허가 없이 시스템을 임의로 변경하거나 수정하는 것은 허용되지 않습니다. 또한, 이 법안은 고위험 인공지능 시스템과 관련하여 공급업체와 구현자의 의무 사항을 명시하고 있습니다.
베트남의 인공지능법 조기 제정은 인공지능 분야에 획기적인 발전을 가져오고, 혁신을 촉진하는 유리한 법적 환경을 조성하며, 국가 경쟁력을 강화하고, 기술 자립 국가로서의 베트남의 위상을 공고히 할 것입니다.
출처: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html






댓글 (0)