베트남은 많은 국가의 경험과 유네스코 원칙을 바탕으로 윤리적이고 책임감 있는 방식으로 인공지능(AI)을 개발하기 위한 규정을 제정하고 있습니다.
2월 28일 오전 베트남 국립대학교 법학대학에서 열린 "책임 있는 인공지능의 개발과 응용: 이론과 실제" 워크숍에서 과학 기술부 부차관인 부이 테 두이는 AI 윤리가 복잡하고 세계적인 문제이며, 유네스코를 포함하여 전 세계 많은 국가와 조직이 해결책을 찾기 위해 참여하고 있다고 말했습니다.
"유네스코는 문화와 교육 에 중점을 둔 기구입니다. 하지만 이 기구가 처음으로 기술 관련 주제인 인공지능을 논의의 장에 포함시켰습니다. 이러한 움직임으로 인해 유네스코를 탈퇴했던 일부 국가들이 다시 가입하기로 결정했습니다."라고 그는 말했습니다.
차관에 따르면, AI 윤리는 사회, 법률, 정치 경쟁, 상업 경쟁 등 삶의 여러 측면에 영향을 미칩니다. 인공지능이 책임감 있게 발전하려면 AI 모델 정의, 데이터 수집, 시스템 완성 및 적용 단계부터 경영진의 적극적인 참여가 필수적입니다. 베트남의 현실에서 이러한 과정에는 엔지니어, 과학자, 그리고 과학기술부, 정보통신부, 공안부 등 관리 기관의 협력이 필수적입니다.
워크숍에서 두이 씨는 유네스코 원칙이 각국이 AI 윤리 규정을 수립하는 데 기반이 된다고 말했습니다. 첫째, 인공지능 모델은 처음부터 정해진 설계 및 과제를 준수해야 하며, 이를 통해 인간에게 해를 끼치는 파괴적인 행위가 발생하지 않도록 해야 합니다.
"AI는 인간이 연구해 온 기술과는 완전히 다릅니다. 기존 기술 제품은 기존 목표만 따르는 반면, AI는 개발자의 통제를 벗어나 스스로 새로운 방향을 만들어낼 수 있습니다."라고 그는 말했습니다. 차관은 또한 과학자들이 두 컴퓨터 시스템이 영어로 대화하도록 한 사례를 제시했습니다. 하지만 일정 시간 후 갑자기 낯선 언어로 소통하게 되어 연구진이 대화 내용을 파악할 수 없게 되었습니다.
AI 모델을 구축할 때 평등과 공정성 문제 또한 중요한 고려 사항입니다. 듀이 씨에 따르면, 인공지능을 훈련하기 위한 정보 수집 단계부터 불평등이 발생하여 전체 시스템에 부정적인 영향을 미칠 수 있습니다.
AI 음성 인식 모델을 사용하면서, 하노이 시민들로부터만 데이터를 수집할 경우 다른 지역 사람들과 소통할 때 시스템이 편향될 수 있다고 그는 말했습니다. "더 넓게 보면, AI 데이터는 장애인과 같은 사회적 집단과 성별 간의 불의를 야기할 수 있습니다."라고 그는 덧붙였습니다. 따라서 공정한 AI 개발을 위해서는 법률 전문가의 참여뿐 아니라 심리학자와 사회학자의 기여도 필요합니다.
또한, 부처 대표는 개인정보 보안 보장, 저작권, 지적재산권 존중, 노동 생산성 향상과 더불어 환경과 사회 보장을 보호해야 한다는 등 AI 윤리의 몇 가지 중요한 원칙을 강조했습니다.
부이 더 두이 차관이 워크숍에서 연설하고 있다. 사진: 황장
워크숍에서 전문가들은 베트남이 전 세계 여러 국가와 지역에서 책임 있는 AI 개발에 대한 규정 시행을 모니터링하여 국내 관행에 적합한 법적 틀을 연구하고 구축하고 있다고 밝혔습니다.
구체적으로, 2023년 말, 유럽연합은 AI법의 원칙을 채택했으며, 늦어도 2024년 2분기까지 발표될 예정입니다. 이는 현재로서는 최초이자 가장 포괄적인 법률로, AI로 인한 위험을 다루기 위한 많은 이니셔티브를 담고 있습니다.
베트남 국립대학교 법학대학 도 지앙 남(Do Giang Nam) 박사는 워크숍에서 "2024년 AI법은 AI 모델의 위험성을 고려하여 법을 개정하고, 샌드박스 제도를 도입하며, 윤리, 신뢰성, 책임에 대한 '소프트' 접근 방식을 적용할 것"이라고 말했습니다. 그는 베트남이 AI법을 통해 얻을 수 있는 경험은 "단순한 법률을 만드는 것이 아니라, AI 기술 발전에 맞춰 지속적으로 업데이트하고 적응하는 것"이라고 강조했습니다.
유럽과 달리 미국은 AI 거버넌스 구축을 위해 민간 부문의 대응을 모색하고 있습니다. 미국은 또한 AI 기업을 상대로 한 소송이 가장 많은 국가이며, 주로 개인정보 침해 및 근로자 집단 간 차별과 관련된 소송입니다. 전문가들에 따르면, 미국은 고정된 법률 체계 대신 다양한 원칙을 제정하여 조직과 개인이 AI 모델을 개발하고 적용하는 과정에서 유연하게 대처할 수 있도록 하는 경향이 있습니다.
중국과 일본은 책임 있는 AI 개발에 큰 진전을 이룬 두 나라입니다. 10억 인구의 중국은 2019년부터 모델러, 사용자, AI 거버넌스, 그리고 향후 AI 개발 방향에 중점을 둔 4대 원칙을 발표했습니다. 이에 따라 중국은 AI를 자율적으로 개발하는 동시에 국내 거버넌스를 강화하기로 했으며, 일본은 국제 포럼 참여를 보장하는 동시에 인간 중심적인 AI 행동 강령을 수립하고자 합니다.
"중국과 일본과 같은 지역 국가에서 인공지능을 관리하는 과정은 베트남에서 책임감 있는 AI를 개발하는 데 좋은 경험이 될 수 있습니다. 법적 책임뿐 아니라 사회와 국민에 대한 책임도 중요합니다."라고 베트남 국립대학교 법학대학장 응우옌 티 꾸에 안 부교수는 말했습니다. 베트남은 또한 인공지능을 포함한 디지털 제품의 윤리에 관한 내용을 담은 디지털 기술 산업법을 제정하고 있습니다.
황장
[광고_2]
소스 링크
댓글 (0)