인공지능(AI)의 폭발적인 발전으로 인해 많은 국가에서는 AI의 윤리와 책임감 있는 사용에 대한 문제를 특별히 우려하고 있으며, 이는 AI의 부정적인 측면을 제한하기 위한 것입니다.
베트남이 디지털 전환과 민간 부문 개발을 촉진하는 맥락에서, AI 윤리는 기술 개발 과정을 방해하기보다는 지원하는 실용적인 방식으로 설계되어야 합니다.
이는 5월 15-16일 호치민시 에 있는 미국 대사관과 협력하여 블록체인 기술 및 인공지능 연구소(ABAII)가 주최한 "AI 윤리" 강좌에서 베트남 블록체인 협회(VBA) 회장인 판 득 중(Phan Duc Trung) 씨가 공유한 내용입니다.
AI 윤리 또는 AI의 책임 있는 사용은 특히 미국, 일본, 한국, 유럽연합(EU) 등 선진국에서 큰 관심을 모으는 주제입니다.
미국에서는 몇몇 대형 기술 회사가 AI의 책임 있는 사용을 위한 규정과 평가 프레임워크를 개발하여 접근하고 있습니다.
Microsoft - 미국을 대표하는 다국적 기업이 콘텐츠 공격 위험을 탐지하고 관리하기 위한 안전성 평가, 콘텐츠 필터링, 알림 보호 등 30개 이상의 책임 있는 AI 도구를 출시했습니다.
다국적 컴퓨터 기술 기업인 IBM의 경우, 직원 100%가 연례 사업 행동 지침 프로그램에 참여하고, 600개 이상의 공급업체가 기술 윤리 교육을 받았으며, 2023년까지 IBM 공급업체의 100%가 사회적 및 환경적 책임, 윤리 및 위험 계획에 대한 활동을 수행하도록 유도했습니다.
베트남에서는 2021년 1월 26일 총리 결정 제127/QD-TTg에 따른 2030년까지 인공지능 연구, 개발 및 응용에 관한 국가 전략에서 AI 윤리 및 정책에 대한 교육이 중요한 기둥이라고 강조했습니다.
베트남 블록체인 협회(VBA) 회장인 판 득 중(Phan Duc Trung) 씨에 따르면, 인공지능에 대한 윤리 원칙을 수립하는 것은 각 조직의 실제적 맥락과 규모에 적합해야 합니다.
윤리 지침은 기본적인 것부터 시작하여 조직이 성장함에 따라 조정하면서 단계적으로 구현해야 합니다.
VBA 리더들은 또한 미국과 유럽의 접근 방식 차이를 지적했습니다. 미국 모델은 더 유연하여 엄격한 규제를 부과하기 전에 혁신이 일어날 수 있도록 허용합니다.
Trung 씨는 "베트남이 디지털 전환과 민간 부문 개발을 촉진하는 맥락에서 AI 윤리는 기술 개발 과정을 방해하기보다는 지원하는 실용적인 방식으로 설계되어야 합니다."라고 강조했습니다.
ABAII 부국장인 다오 중 탄(Dao Trung Thanh) 씨는 현재 전 세계 주요 기술 기업들이 AI의 책임 있는 사용에 대해 서로 다른 정의를 내리고 있다고 말했습니다.
예를 들어, Microsoft에서는 책임 있는 AI를 안전하고 신뢰할 수 있고 책임감 있는 방식으로 AI 시스템을 개발, 평가 및 배포하는 접근 방식으로 정의합니다.
구글은 AI와 같은 기술의 성장과 규모가 사회적에 미치는 영향, 즉 잠재적 피해와 이점을 다시 한번 고려합니다.
IBM은 AI의 설계, 개발, 배포 및 사용을 안내하는 일련의 원칙을 개발했습니다. 그들은 조직과 이해관계자에게 힘을 실어줄 수 있는 AI 솔루션에 대한 신뢰를 구축합니다.
그러나 오늘날 기업들이 공통적으로 목표로 하는 것은 AI가 윤리적으로 작동하고, 해를 끼치지 않으며, 사회에 이익이 되도록 하는 도구를 만드는 데 집중하는 것입니다.
FPT의 책임 있는 인공지능 분야 고문이자 Humane-AI Asia의 설립자인 Tran Vu Ha Minh 여사는 베트남에 연락하여 베트남 기업의 책임 있는 AI에 대한 관심, 구축 및 적용이 여전히 제한적이라고 평가했습니다. 따라서 베트남에서 책임 있는 AI 개발을 위한 인적 자원을 구축하기 위해서는 AI 윤리 교육 과정이 필요합니다.
이 강의에서 베트남 블록체인 협회의 법률 이사인 응우옌 쩐 민 콴(Nguyen Tran Minh Quan) 씨와 AI 시스템이 국제 규정 및 윤리 기준을 준수하도록 보장하는 미국의 선도적 기관 중 하나인 Babl AI의 CEO인 제프리 레커(Jeffery Recker) 씨는 UNESCO AI 윤리 기준, OECD AI 원칙, 미국 국가 표준 및 기술(NIST)과 미국 대통령이 발표한 최신 행정 명령을 언급했습니다.
"AI가 전 세계적으로 도입되고 있지만, 많은 조직과 기업들이 윤리 및 위험 관리 준비 부족으로 어려움을 겪고 있습니다. 이는 마치 처음부터 예방 시스템을 구축하는 대신, 불이 난 후에야 끄려는 것과 같습니다."라고 제프리 레커는 말했습니다.
이를 바탕으로 Jeffery Recker 씨는 조직이 AI 카탈로그 작성 등의 단계를 포함하여 지금 당장 규정 준수 로드맵을 적극적으로 구현할 것을 권고합니다. AI 도구의 위험성 평가 최고위층의 승인을 확보한다. 현재 상황과 법적 요구 사항을 분석하여 적합한 개선 로드맵을 결정합니다.
이 과정에서는 학생들에게 기본 지식을 제공할 뿐만 아니라 학제간, 교차학제간 연결을 통해 국가 관리 기관, 기술 기업, 교육 기관, 연구소 등의 학생들이 경험을 교환하고 공유하며 함께 베트남에서 책임감 있는 AI 사용자 커뮤니티를 구축할 수 있는 기회를 제공합니다.
이는 전문가 네트워크를 형성하고, 정책 지원에 기여하며, 앞으로 다가올 기술적 과제에 대응하는 역량을 향상시키는 데 중요한 전제가 됩니다.
앞서 5월 12~13일 하노이에서도 'AI 윤리' 강좌가 500명의 학생이 참여한 가운데 성공적으로 개최된 바 있다.
출처: https://www.vietnamplus.vn/dao-tao-ve-dao-duc-va-chinh-sach-giup-thuc-day-su-dung-ai-co-trach-nhiem-post1038995.vnp
댓글 (0)