동응옥바 대표에 따르면, 인공지능(AI) 법률의 공포는 통일되고 동시적인 법적 기반을 구축하는 데 기여하여 AI 연구, 개발 및 활용에 있어 개발을 촉진하고 효과적인 위험 관리를 보장하며, 디지털 시대의 사회 경제적 발전 요구 사항을 충족시킬 것입니다.

대표는 초안 작성 기관이 매우 적극적이고 책임감 있게 검토 기관 및 관련 기관의 의견을 수렴하여 초안을 완성했다고 말했습니다. 대표는 새 초안에 포함된 많은 내용을 수용하고 수정한 것을 높이 평가했습니다.
동시에, 민법, 제품 및 물품 품질법, 지식재산권법, 첨단기술법, 표준 및 기술 규정법 등 관련 법률과의 일관성과 동기화를 보장하고, 새로운 입법적 사고와 입법 기법을 확보하는 등 지속적으로 검토하고 조정하는 것이 좋습니다.
그 밖에 동응옥바 의원도 몇 가지 구체적인 권고안을 제시했습니다.
인공지능에 관한 법률 초안(제7조~제11조)은 AI 시스템의 위험 관리를 낮은 위험, 중간 위험, 높은 위험 및 허용할 수 없는 위험의 4단계로 분류하도록 규정하고 있습니다.
바 대표는 AI의 특성을 고려할 때 AI 시스템을 일종의 제품이나 상품으로 간주한다면, 초안 법안의 규정은 불합리하고 일관성이 없으며, 제품 및 상품 품질법(제품 및 상품을 저위험, 중위험, 고위험의 3개 그룹으로 구분)의 규정과 양립할 수 없다고 말했습니다.
따라서 제도화 기관에서는 제품 및 상품 품질에 관한 법률(3단계 위험 수준)에 따라 AI 시스템을 신중하게 조사하고 분류하여 구현을 용이하게 하는 것이 좋습니다.
"' 용납할 수 없는 위험'을 지닌 AI 시스템의 경우, 이는 금지 행위로 간주되어야 하며, 법안 초안에 이를 구체적으로 규정해야 합니다. 완전성과 엄격성을 보장하기 위해 AI 연구, 개발 및 사용에 대한 다른 금지 행위(예: AI를 이용하여 국가 안보를 침해하는 행위, AI를 이용하여 생체 데이터를 기반으로 차별하는 행위 등)를 추가할 필요가 있습니다."라고 바 의원은 제안했습니다.
인공지능 시스템으로 인한 손해배상 책임에 관하여 인공지능법 초안 제30조 제3항 제a목은 “고위험 인공지능 시스템의 경우: 인공지능 시스템의 관리 및 이용에 관한 위반으로 인해 손해가 발생한 경우, 위반한 조직 또는 개인은 민법의 규정에 따라 손해를 배상해야 한다”고 규정하고 있습니다.
민법 제601조 제1항에 따르면, 극도의 위험 요인에는 자동차, 전력 전송 시스템, 가동 중인 산업 시설, 무기, 폭발물, 인화성 물질, 독성 물질, 방사성 물질, 야생 동물 및 법률이 규정하는 기타 극도의 위험 요인이 포함됩니다.
동응옥 바 의원에 따르면, 민법은 고위험 요인으로 인한 손해배상과 기타 사례, 특히 손해배상 책임 결정 시 과실 요인을 구분하고 있습니다. 인공지능법 초안의 위 제30조 제3항 a호 규정에 따르면, "고위험 AI 시스템" 이 "고위험 요인"인지 여부가 불분명합니다. 한편, 기술적 및 기술적 특성 측면에서 고위험 AI 시스템은 고위험 요인의 성격을 지닙니다.
따라서 대표는 인공지능법 초안 제30조 제3항 제a목의 규정을 연구하여 개정하여, 고위험 인공지능 시스템을 극도의 위험원으로 정의하고, 민법 규정에 따라 인공지능 시스템으로 인한 손해배상책임에 관한 규정을 적용할 수 있는 근거를 마련할 것을 제안했습니다.
사고방식과 입법 기법의 혁신과 관련하여, 바 의원은 인공지능법이 정부 권한 하에 있는 사안을 규제하지 않도록 검토할 것을 제안했습니다. 구체적으로, 제6장(검사, 조사 및 위반 사항 처리)에서 전문적인 검사를 규제하지 않고 정부가 권한에 따라 규제하도록 하는 방안을 검토했습니다. 제7장(AI 국가 관리)을 검토하여 부처의 국가 관리 책임 등 정부 권한 하에 있는 규제를 삭제하고, 검사, 조사 및 위반 사항 처리가 본질적으로 AI 국가 관리의 구체적인 내용이므로 제6장을 제7장으로 통합할 것을 제안했습니다.

자라이성 국회 대표단 부단장 시우 흐엉은 제5장의 AI 활동 윤리 및 책임에 대한 규정에 관심을 표명했습니다.
흐엉 의원에 따르면, 현재 많은 AI 모델이 저작자의 동의 없이 인터넷에서 데이터, 예술작품, 창작물을 수집하여 학습되고 있으며, 저작자에게 보상할 수 있는 제도가 마련되어 있지 않습니다. 이는 콘텐츠 제작자의 지적 재산권을 침해할 잠재적 위험을 내포하고 있습니다.
따라서 대표는 초안 작성 기관이 AI 시스템 개발자가 콘텐츠 소유자가 AI 학습 목적으로 자신의 저작물을 사용하는 데 동의하거나 거부할 수 있도록 명확한 허가 메커니즘을 마련해야 한다는 규정을 제5장에 추가하는 것을 고려할 것을 제안했습니다. 동시에, 연구 기관은 저작물이 AI 모델 학습에 사용될 경우 저자에게 보상 또는 이익 공유 메커니즘을 구축해야 합니다.

토론에 참여한 응우옌 반 칸 의원(자라이성 국회 대표단 위원)은 "AI" 제품 사용 시 통제할 수 없는 사고가 발생하여 손해가 발생할 경우 누가 배상 책임을 져야 하는지에 대한 소비자의 관점에서 문제를 제기했습니다.
칸 의원에 따르면, 인공지능법 초안은 "AI 기술을 활용한 제품"이라는 용어를 설명하지 않습니다. 소비자는 제품만 알 뿐, AI 기술이 무엇인지 아는 사람은 연구자와 과학자뿐입니다.
칸 의원은 AI를 투입 제품, 수단-도구, 반제품 또는 완제품으로 명확하게 구분할 것을 제안했습니다. 이를 통해 공급자의 책임에 대한 구체적인 규정이 마련될 것입니다.
"예를 들어, AI는 제품에만 통합되어 있습니다. 손상이 발생하면 해당 제품 판매자는 모든 책임을 져야 하며 AI 탓으로 돌릴 수 없습니다. AI를 만든 회사가 저에게 판매하기 때문에 저는 통제할 수 없습니다."라고 칸 의원은 분석했습니다.
출처: https://baogialai.com.vn/viec-ban-hanh-luat-tri-tue-nhan-tao-la-van-de-cap-bach-post573129.html






댓글 (0)