설명용 사진. 출처: VNA |
따라서 AI 시스템의 연구, 설계, 개발 및 제공에 참여하는 과학 기술 기관, 조직, 기업 및 개인은 본 지침 문서의 내용을 적용하는 것이 좋습니다.
책임 있는 AI 연구 개발을 위한 9가지 원칙은 다음과 같습니다. 협업, 혁신, 투명성, 통제, 안전, 보안, 개인정보 보호, 인권과 존엄성 존중, 사용자 지원, 책임감.
각 원칙에는 자체적인 구현 지침이 있습니다. 예를 들어, 투명성을 위해 개발자는 AI 시스템의 입출력 제어 및 관련 분석 결과 설명 능력에 주의를 기울여야 합니다. 따라서 이 원칙을 준수하는 AI 시스템은 사용자 또는 관련 제3자의 생명, 신체, 사생활 또는 재산에 영향을 미칠 수 있는 시스템인 경우가 많습니다.
개발자는 사용자를 포함한 사회의 신뢰를 확보하기 위해 AI 시스템의 입력과 출력을 명확하게 식별하는 능력과 적용된 기술의 특성과 이를 사용하는 방법에 따른 관련 설명 가능성에 주의를 기울여야 합니다.
또는 인권과 존엄성 존중의 원칙에 관해서 말하자면, 인간을 포함하는 AI 시스템을 개발할 때 개발자는 관련된 개인의 인권과 존엄성을 존중하는 데 특별한 주의를 기울여야 합니다.
개발자는 적용 기술의 특성에 따라 가능한 한 AI 시스템을 학습할 때 데이터의 편향(선입견)으로 인해 차별이나 불공정이 발생하지 않도록 조치를 취해야 합니다.
개발자는 베트남의 기본 원칙(애국심, 연대, 자립, 충성심, 정직, 책임, 규율, 창의성 등의 가치)에 따라 AI 시스템이 인간의 가치와 사회 윤리를 위반하지 않도록 예방 조치를 취해야 합니다.
옥스포드 인사이트가 실시한 "정부 AI 준비 지수" 보고서의 평가 결과 및 발표에 따르면, 2023년 베트남은 아세안 국가 중 필리핀(싱가포르, 말레이시아, 태국, 인도네시아에 이어)을 제치고 5위로 올라섰습니다. 2023년 베트남의 평균 점수는 54.48점(2022년 53.96점, 2021년 51.82점)으로 세계 평균을 상회하며 193개 국가 및 지역 중 59위(2022년 181개 국가 및 지역 중 55위)를 기록했습니다.
과학기술부 에 따르면, 현재 상황에서는 AI 개발 및 활용 과정에서 발생하는 위험을 최소화하고, 관련된 경제적, 윤리적, 법적 요소들의 균형을 맞추기 위한 연구 및 조치가 필요합니다. 따라서 전문 기관은 구속력이 없고 유연한 규제라 하더라도 지침을 위한 표준 및 가이드라인을 연구하고 개발해야 합니다.
또한, 이해관계자(개발자, 서비스 제공자, 사용자 등) 간에 프로세스와 모범 사례에 대한 정보를 공유하고 교환하면 AI 시스템의 이점을 늘리고 위험을 제어하기 위한 합의도 촉진될 것입니다.
과학기술부는 유네스코, 유엔, 아세안, G7, G20 등의 기관에서 나온 권고안과 다른 국가의 경험을 적극적으로 연구하여 AI 윤리에 대한 권고안, 도구, 규정을 개발하고, 베트남의 현행 관행과 규정에 맞춰 책임 있는 AI 제품(AI 제품의 연구, 설계, 개발, 배포까지)을 개발하고 있습니다.
과학기술부 부이 테 주이(Bui The Duy) 차관은 베트남의 책임 있는 AI 연구 개발 지침 개발은 사람들이 AI 시스템뿐만 아니라 삶의 혜택을 누리는 인간 중심 사회의 목표를 충실히 따라야 한다고 강조했습니다. 동시에 AI 시스템의 이점과 위험 간의 합리적인 균형을 유지해야 합니다. 구체적으로는 연구, 개발 및 혁신 활동을 통해 AI의 이점을 증진하고, AI 시스템으로 인해 조직 및 개인의 권리 또는 정당한 이익이 침해될 위험을 최소화해야 합니다.
AI 시스템에 대한 연구 개발 활동이 특정 기술이나 기법을 기반으로 이루어지는 동시에 기술적 중립성을 보장하고 개발자들이 향후 AI 관련 기술의 급속한 발전에 영향을 받지 않도록 보장합니다.
과학기술부는 또한 원칙과 지침을 실제 상황에 맞게 계속 연구하고 업데이트할 것이라고 밝혔습니다.
[광고_2]
출처: https://dangcongsan.vn/khoa-hoc/9-nguyen-tac-nghien-cuu-phat-trien-he-thong-ai-co-trach-nhiem-667349.html
댓글 (0)