베트남, AI 윤리 규정 첫 제정

인공지능(AI)은 국민, 사회, 그리고 베트남 경제 에 큰 혜택을 가져올 것으로 예상됩니다. 베트남은 AI 적용과 더불어, 경제적, 윤리적, 법적 요인의 균형을 맞추면서 AI 개발 및 활용 과정에서 발생하는 위험을 최소화하기 위한 연구 및 조치를 적극적으로 시행해 왔습니다.

과학 기술부(MOST)가 인공지능 시스템의 책임 있는 연구 개발에 대한 여러 원칙을 안내하는 일련의 문서를 발표한 이유도 여기에 있습니다.

이 지침 문서는 인공지능 시스템을 연구, 설계, 개발, 제공하는 과정에서 참고하고 적용할 수 있는 몇 가지 일반 원칙과 자발적 권장 사항을 제시합니다.

인공지능 시스템의 연구, 설계, 개발 및 제공에 참여하는 과학 및 기술 기관, 조직, 기업 및 개인은 이 지침 문서를 적용하는 것이 좋습니다.

W-vien-han-lam-삽화-ai-tri-tue-nhan-tao-1.jpg
2023년 베트남 국제 혁신 전시회에 참가한 베트남 과학기술 아카데미의 로봇 모델. 사진: Trong Dat

따라서 베트남의 AI 시스템 연구 개발은 모든 사람이 인공지능의 혜택을 누리고, 이점과 위험 간의 적절한 균형을 보장하는 인간 중심 사회로 나아가는 근본적인 관점을 기반으로 해야 합니다.

베트남의 AI 시스템 연구 개발 활동은 기술적 중립성 보장을 목표로 합니다. 과학기술부는 모든 경우에 관련 당사자들의 참여를 바탕으로 한 교류와 논의를 장려합니다. 원칙과 지침은 실제 상황에 맞춰 지속적으로 연구되고 업데이트될 것입니다.

과학기술부는 이 문서의 발표가 베트남에서 안전하고 책임감 있는 방식으로 인공지능 연구, 개발 및 활용에 대한 관심을 증진하고, 사람과 지역 사회에 미치는 부정적인 영향을 최소화하는 데 목적이 있다고 밝혔습니다. 이를 통해 사용자와 사회의 AI에 대한 신뢰를 높이고 베트남의 인공지능 연구 개발을 촉진할 것입니다.

책임 있는 AI 개발을 위한 원칙

이 문서는 개발자들이 인공지능 시스템의 연결과 상호작용을 통해 혁신을 촉진하고 협업 정신을 발휘하도록 장려합니다. 개발자는 AI 시스템의 입출력을 제어하고 관련 분석 내용을 설명할 수 있는 능력을 통해 투명성을 확보해야 합니다.

개발자는 인공지능 시스템을 제어하고 관련 위험을 사전에 평가할 수 있는 능력에 주의를 기울여야 합니다. 위험을 평가하는 한 가지 방법은 실제 시스템에 적용하기 전에 실험실이나 보안 및 안전성이 보장되는 환경과 같은 별도의 공간에서 테스트를 수행하는 것입니다.

또한, AI 시스템의 제어 가능성을 보장하기 위해 개발자는 시스템 모니터링(평가/모니터링 도구 또는 사용자 피드백을 기반으로 한 수정/업데이트)과 인간이나 신뢰할 수 있는 AI 시스템이 수행하는 대응 조치(시스템 종료, 네트워크 종료 등)에 주의를 기울여야 합니다.

AI AI 로봇 아난 3.jpg
한 젊은이가 베트남 엔지니어들이 개발한 인공지능 "로봇" 아난에게 질문을 하고 있다. 사진: 쫑 닷

개발자는 AI 시스템이 중개자를 포함하여 사용자 또는 제3자의 생명, 신체 또는 재산에 해를 끼치지 않도록 보장해야 합니다. 또한 AI 시스템의 보안, 신뢰성 및 물리적 공격이나 사고에 대한 시스템의 내구성에 주의를 기울여야 합니다. 또한 AI 시스템이 사용자 또는 제3자의 사생활을 침해하지 않도록 보장해야 합니다. 이 원칙에 언급된 사생활권에는 공간의 사생활권(개인생활의 평화), 정보(개인 데이터)의 사생활권, 통신의 비밀 유지가 포함됩니다.

인공지능 시스템을 개발할 때 개발자는 인권과 존엄성을 존중하는 데 각별한 주의를 기울여야 합니다. 적용 기술의 특성에 따라 가능한 한, 개발자는 학습 데이터의 편향(선입견)으로 인한 차별이나 불공정을 야기하지 않도록 조치를 취해야 합니다. 뿐만 아니라, 개발자는 이해관계자에 대한 책임을 다하고 사용자를 지원해야 합니다.

4.0 시대의 저널리즘은 AI "고속 열차"를 놓쳐서는 안 됩니다 . 기자들은 AI를 주저하고 두려워하기보다는, 적극적으로 인공지능을 뉴스룸 운영에 도입해야 합니다.