
할아버지 효행 정부 의 이 법 제정 방식에 동의합니다. 이 법안 초안은 베트남의 인공지능(AI) 접근 방식을 명확하게 정의하고 있습니다. AI 개발에 우호적인 동시에 AI가 초래할 수 있는 위험을 최소화하기 위한 규정을 담고 있습니다.
히에우 씨는 연설에서 통제 시험 메커니즘에 관한 법률 초안 제20조의 규정을 추가 분석하여 실행 가능성을 보장하고 특히 국내 AI 시스템 개발을 위한 가장 유리한 조건을 조성하는 데 중점을 두었습니다.
히에우 씨에 따르면, 인공지능 개발을 위한 통제된 테스트 메커니즘은 매우 중요합니다. 인공지능은 매우 새로운 문제이고 다양한 분야와 관련되어 있기 때문에 현재의 법적 체계만으로는 AI 개발을 위한 여건을 조성할 수 없습니다. AI 통제된 테스트 메커니즘의 주요 목적은 AI 모델을 저해하는 법적 장벽을 제거하고, 제한된 범위 내에서 테스트를 통해 효과성을 입증할 데이터를 확보할 수 있도록 하여 장기적인 규제 개혁을 촉진하는 것입니다. 이 방식은 또한 우리의 현행 입법적 사고방식과도 매우 일치합니다. 즉, 기관이 먼저 개발의 길을 닦아야 합니다. 알려진 것은 관리하고, 알려지지 않았거나 불분명한 것은 관리하지 않아야 합니다. 따라서 통제된 테스트 메커니즘에 대한 규정은 인공지능 관련 법적 체계의 초점이 되어야 합니다. 따라서 초안 작성 기관은 이 문제를 초안에서 더욱 구체적으로 연구하고 규제해야 합니다.
구체적인 의견에 대해 히에우 씨는 이 법 제20조 2항에 따라 통제 시험에 참여하는 조직 및 개인이 면제되거나 일부 준수 의무가 경감되는 규정을 검토할 것을 제안했습니다. 이러한 규정은 면제 범위를 이 법의 규정으로 제한하는 결과를 초래하는데, 인공지능 시스템은 종종 다른 관련 법률 규정과 밀접하게 연관되어 있습니다.
"자율주행차에서의 AI 테스트는 도로안전질서법 및 개인정보보호법의 금지 조항과 긴밀히 연관될 것입니다. 예를 들어, 일본의 자율주행 여객기에서의 AI 테스트 메커니즘은 일부 항공 규정에서 면제됩니다. 또는 중국과 일본의 자율주행차 테스트는 교통 참여자의 얼굴을 흐리게 하지 않는 이미지 데이터를 사용하여 AI의 시야를 훈련하고 학습시키는 개인정보보호법 조항에서 면제됩니다."라고 히에우 씨는 예를 들어, 초안 작성 기관이 제20조 제2항의 규정을 연구하고 개정하여 면제되는 통제 테스트 참여 기관과 개인을 명확하게 정의할 것을 제안했습니다 . 또는 이 법 및 기타 관련 법률에 규정된 특정 준수 의무를 완화합니다.
인공지능 국가관리기관이 평가 및 신속 대응 절차에 따라 통제된 시험 활동에 참여하기 위한 서류 접수, 평가 및 처리를 조직하도록 하는 규정에 관하여 , 히에우 씨는 이 규정, 특히 신속한 평가 및 대응 조항에 동의합니다. 그러나 AI 시스템은 단순히 기술과 알고리즘의 문제가 아니라, 다학제적이고 학제적인 문제입니다. 따라서 제5조의 조항은 ChatGPT나 Gemini와 같은 생성 AI와 같은 범용 AI 시스템에만 적합할 것으로 보입니다. 전문 AI 시스템의 경우, 학제적 성격이 매우 높습니다.
할아버지 효행 예를 들어, DrAid 시스템은 VinBrain 회사가 개발한 의료 영상 진단을 지원하는 AI 제품입니다 . 시험 등록이 시행될 경우, 보건부는 감독 및 관리 역할을 피할 수 없습니다. 따라서 일부 국가에서는 AI 시스템 통제 시험의 평가 및 허가를 학제 간 위원회에 위임하고 있습니다. 따라서 제5조의 조항을 "인공지능 국가관리기관은 통제 시험 활동 참여를 위한 서류의 접수, 평가 및 처리를 주관하고 관련 국가관리기관과 협력한다"는 방향으로 개정할 것을 권고합니다.
할아버지 Hieu는 또한 다음과 같이 언급했습니다. 제20조 조항에는 여전히 손해배상 및 보험책임에 관한 조항이 없습니다. 따라서 현행 법률 초안의 조항들은 시험으로 인해 제3자에게 손해가 발생할 경우 누가 책임을 져야 하는지에 대한 내용은 명시되어 있지 않습니다. 일반적으로 시험 기관이나 개인은 손해가 발생할 경우 민사상 손해배상을 해야 합니다. 따라서 이 조항을 초안에 추가하는 것을 고려해 볼 만합니다.
“ 또한 혁신 정신을 촉진하고 장려하기 위해서는 테스트에 참여하는 조직과 개인이 위험을 예방할 수 있도록 지원하는 메커니즘을 연구하고 보완하는 것도 필요하다고 생각합니다 . 예를 들어, 테스트 실시 전 책임 보험을 지원하는 제도를 도입하거나, 국가가 예산의 일부를 (다양한 기금을 통해) 지원하여 테스트 참여를 장려할 수 있습니다. 이러한 정책적 장치가 없다면, 자율주행차와 같은 고위험 AI 시스템을 개발하거나 스타트업 단계에 있는 기업들은 단 한 번의 사고만으로도 파산할 수 있기 때문에 테스트를 꺼릴 것입니다 ."라고 히에우 씨는 말했습니다.
출처: https://daidoanket.vn/de-xuat-bo-sung-co-che-ho-tro-cho-cac-to-chuc-ca-nhan-tham-gia-thu-nghiem-ai.html






댓글 (0)