베트남, AI 윤리 규정 첫 제정
인공지능(AI)은 사람, 사회, 베트남 경제 에 큰 혜택을 가져다 줄 것으로 기대됩니다. 베트남은 AI 적용과 함께 경제적, 윤리적, 법적 요소의 균형을 맞춰 AI 개발 및 활용 과정에서 위험을 최소화하기 위한 연구와 조치를 먼저 시행해 왔습니다.
과학 기술부(MOST)가 인공지능 시스템의 책임 있는 연구 개발에 대한 여러 원칙을 안내하는 일련의 문서를 발표한 이유도 여기에 있습니다.
이 지침 문서는 인공지능 시스템을 연구, 설계, 개발, 제공하는 과정에서 참고하고 적용할 수 있는 몇 가지 일반 원칙과 자발적 권장 사항을 제시합니다.
인공지능 시스템의 연구, 설계, 개발 및 제공에 참여하는 과학 및 기술 기관, 조직, 기업 및 개인은 이 지침 문서를 적용하는 것이 좋습니다.
따라서 베트남의 AI 시스템 연구 개발은 모든 사람이 인공지능의 혜택을 누리고, 이점과 위험 간의 적절한 균형을 보장하는 인간 중심 사회로 나아가는 근본적인 관점을 기반으로 해야 합니다.
베트남의 AI 시스템에 대한 연구 개발 활동은 기술적 중립성을 보장하는 것을 목표로 합니다. 모든 경우에 과학기술부는 관련 당사자의 참여를 통한 교류와 논의를 장려합니다. 원칙과 지침은 실제 상황에 맞게 계속 연구되고 업데이트될 것입니다.
과학기술부는 이 문서 세트의 목적은 베트남에서 인공지능의 연구, 개발 및 활용에 대한 관심을 안전하고 책임감 있는 방식으로 촉진하고, 사람과 지역 사회에 미치는 부정적인 영향을 최소화하는 것이라고 밝혔습니다. 이를 통해 AI에 대한 사용자와 사회적 신뢰가 높아지고, 베트남 내 인공지능 연구 개발이 촉진될 것으로 기대됩니다.
책임 있는 AI 개발을 위한 원칙
이 문서에서는 개발자들이 인공지능 시스템의 연결과 상호작용을 통해 혁신을 촉진하고 협업 정신을 발휘하도록 장려합니다. 개발자는 AI 시스템의 입력/출력을 제어하고 관련 분석을 설명하는 능력을 통해 투명성을 보장해야 합니다.
개발자는 인공지능 시스템을 제어하고 관련 위험을 미리 평가할 수 있는 능력에 주의를 기울여야 합니다. 위험성 평가 방법 중 하나는 실제 사용에 앞서 실험실이나 보안 및 안전이 보장되는 환경과 같은 별도의 공간에서 테스트를 수행하는 것입니다.
또한, AI 시스템의 제어 가능성을 보장하기 위해 개발자는 시스템 모니터링(평가/모니터링 도구 또는 사용자 피드백을 기반으로 한 수정/업데이트)과 인간이나 신뢰할 수 있는 AI 시스템이 수행하는 대응 조치(시스템 종료, 네트워크 종료 등)에 주의를 기울여야 합니다.
개발자는 중개자를 통한 경우를 포함하여 인공지능 시스템이 사용자 또는 제3자의 생명, 신체 또는 재산에 피해를 입히지 않도록 보장해야 합니다. 인공지능 시스템의 보안, 신뢰성, 물리적 공격이나 사고에 견딜 수 있는 능력에 주의를 기울여야 합니다. AI 시스템이 사용자 또는 제3자의 개인정보를 침해하지 않도록 보장하는 것이 필요합니다. 원칙에서 언급된 개인정보 보호권에는 공간적 개인정보 보호(개인 생활에서의 마음의 평화), 정보 개인정보 보호(개인 데이터) 및 통신의 비밀 유지가 포함됩니다.
인공지능 시스템을 개발할 때 개발자는 인권과 존엄성을 존중하는 데 특별한 주의를 기울여야 합니다. 개발자는 적용 기술의 특성에 따라 가능한 한 훈련 데이터의 편향(선입견)으로 인해 차별이나 불공정이 발생하지 않도록 조치를 취해야 합니다. 뿐만 아니라, 개발자는 이해관계자에 대한 책임을 다하고 사용자를 지원해야 합니다.
[광고_2]
출처: https://vietnamnet.vn/viet-nam-ra-nguyen-tac-ai-khong-duoc-gay-ton-hai-tinh-mang-tai-san-nguoi-dung-2292026.html
댓글 (0)