인공지능 시스템을 4가지 위험 수준으로 분류
11월 21일 오전, 국회는 인공지능법 초안 심사에 대한 발표와 보고를 청취했습니다.
과학기술부 장관 응우옌 마잉 훙은 보고서를 발표하면서 이 법안 초안은 인공지능을 위한 획기적인 법적 통로를 만들고, 혁신을 촉진하고, 국가 경쟁력을 강화하는 동시에 위험을 관리하고, 국가 이익, 인권, 디지털 주권을 보호하는 유리한 법적 환경을 조성하기 위해 만들어졌다고 말했습니다.

과학 기술부 장관 응우옌 마잉 훙이 보고서를 발표했습니다.
인공지능 시스템을 규제하기 위해 초안 법안은 위험 기반 관리 접근 방식을 채택하여 인공지능을 4가지 수준으로 분류하고 해당 의무를 부과했습니다.
인공지능 시스템은 위험 수준에 따라 4가지로 분류됩니다. 허용할 수 없는 위험: 시스템은 심각하고 돌이킬 수 없는 피해를 입힐 가능성이 있습니다.
고위험은 생명, 건강, 권리 및 정당한 이익을 침해할 수 있는 시스템을 말합니다. 중간 위험은 사용자를 혼란스럽게 하거나, 조작하거나, 기만할 위험이 있는 시스템을 말합니다. 저위험은 나머지 경우를 말합니다.
공급업체는 유통 전에 시스템을 자체 분류해야 하며 분류 결과에 대한 책임을 져야 합니다.
중위험 및 고위험 시스템의 경우, 공급업체는 원스톱 포털을 통해 과학기술부에 신고해야 합니다. 담당 기관은 등급 분류를 검토하고 재평가할 권리가 있습니다.
이 법은 투명성, 표시 및 책임에 대한 의무를 규정합니다. 구체적으로, 시행 당사자는 허위 요소를 사용하여 제작 또는 편집된 콘텐츠, 오해를 불러일으킬 수 있는 실제 인물을 모방한 콘텐츠(딥페이크), 또는 소통 및 광고 목적으로 인공지능(AI)이 제작한 콘텐츠에 대해 명확하게 알리고 표시해야 합니다.
공급업체와 시행자는 영향을 받는 당사자의 요청이 있을 경우 고위험 시스템 처리 결과를 설명해야 합니다.
사고 발생 시, 당사자들은 시스템을 신속하게 수정, 중단 또는 철회하고 원스톱 포털을 통해 보고할 책임이 있습니다. 위험 관리 목적으로, 용납할 수 없는 위험을 수반하는 이러한 시스템은 어떠한 형태로든 개발, 공급, 배포 또는 사용될 수 없습니다.
금지 목록에는 법률로 금지된 행위에 사용되는 시스템, 가짜 요소를 사용하여 속이고, 조종하고 심각한 피해를 입히는 시스템, 취약 계층(어린이, 노인 등)의 약점을 악용하는 시스템, 국가 안보에 심각한 피해를 주는 가짜 콘텐츠를 만드는 시스템 등이 포함됩니다.
고위험 시스템의 경우, 고위험 시스템은 유통되거나 사용되기 전에 적합성을 평가해야 합니다.
평가는 적합성 인증(공인 기관에서 실시) 또는 적합성 감독(공급업체의 자체 평가)의 형태로 이루어질 수 있습니다.
총리는 각 평가 형태에 해당하는 고위험 인공지능 시스템 목록을 규정합니다.
공급업체(위험 관리 대책 수립, 교육 데이터 관리, 기술 문서 준비, 인적 감독 보장)와 구현자(의도한 목적에 따른 운영, 안전 보장, 투명성 의무 이행)에 대한 세부적인 의무가 설정됩니다.
고위험 시스템을 보유한 해외 공급업체는 베트남에 공인 대리인을 두어야 하며, 시스템이 의무적 적합성 인증 대상인 경우 베트남에 법인을 설립해야 합니다.
중위험, 저위험, 다목적 모델의 경우, 중위험 시스템은 투명성과 라벨링을 보장해야 합니다.
초안은 또한 베트남 법률 준수를 보장하기 위한 범용 인공지능 모델 개발자와 사용자의 책임을 규정합니다. 광범위한 영향을 미칠 가능성이 있는 시스템적 위험을 지닌 GPAI 모델에는 영향 평가, 기술 기록 보관, 과학기술부 보고 등 강화된 의무가 적용됩니다.
그러나 오픈 소스 범용 AI 모델은 이러한 강화된 의무에서 면제됩니다. 오픈 소스 모델을 사용하여 AI 시스템을 개발하는 경우, 사용 조직은 해당 시스템의 위험 관리를 수행해야 합니다.
비용 절감을 위해 보이지 않는 라벨을 사용하는 것을 고려하세요
심사 관점에서, 과학기술환경위원회 위원장인 응우옌 탄 하이는 위원회가 AI 제품에 라벨을 붙이는 것은 AI 시대에 대한 신뢰를 구축하기 위한 구속력 있는 윤리적, 법적 책임이라고 생각한다고 말했습니다.

과학기술환경위원회 위원장 응우옌 탄 하이.
그러나 위원회는 기본적으로 초안 법안의 라벨링 조항에 동의하지만, 베트남의 실질적인 상황에 적합한지 확인하기 위해 AI로 생성된 제품에 대한 국제적 경험을 참조할 것을 권고합니다.
AI가 적용된 제품 및 하드웨어 장치(예: 냉장고, TV, 세탁기 등)의 경우, 비용과 절차를 줄이면서도 관리와 추적성을 보장하기 위해 보이지 않는 워터마크를 적용하는 방법을 연구하고 고려하는 것이 좋습니다.
동시에, 정부가 양식, 기술 표준 및 면제에 대한 자세한 지침을 제공해야 하는 원칙을 법안 초안에 규정하는 것이 제안되었습니다.
최소한의 기술적 지침과 함께 라벨링 규정을 의무에서 권장으로 변경하자는 제안이 있습니다.
동시에 여러 분야에서 자발적 라벨링 메커니즘을 시범적으로 도입하고, "라벨이 없으면 AI 제품이 아니다"라는 오해가 생기지 않도록 소통을 강화해야 합니다.
위험 분류와 관련하여, 위원회는 제품 및 상품 품질에 관한 법률이 제품과 상품을 3가지 유형으로 분류하는 반면, AI를 제품과 상품으로 간주하는 경우 4단계 분류는 일관성이 없다고 생각합니다.
고위험 인공지능 시스템 적합성 인증에 관한 규정은 제품 및 물품 품질에 관한 법률에서 규정하는 고위험 제품 및 물품 관리 원칙과 일치하지 않습니다.
따라서, 초안법의 조항을 현행법과 지속적으로 검토하고 주의 깊게 비교하는 것이 좋습니다.
출처: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










댓글 (0)