AI 활동에는 윤리적 규정이 필요합니다.
11월 21일 오전, 과학 기술환경위원회(KH,CN&MT)를 대표하여 인공지능(AI)법 프로젝트 검토 보고서를 제출한 위원회 위원장인 응우옌 탄 하이는 다음과 같이 말했습니다. 초안 법안의 제27조는 인간 존중, 투명성, 공정성, 무해성, 개인정보 보호와 같은 국제적 관행에 따라 기본 원칙을 정했습니다.
그러나 과학기술환경위원회는 많은 국가에서 인공지능에 대한 정책 개발 과정이 윤리적 틀과 지침 원칙을 공표하는 것으로 시작하여, 이후 관행을 평가하여 최종 확정하고 입법을 추진하는 것으로 진행된다는 점을 발견했습니다.
이를 바탕으로 과학기술환경위원회는 초안 작성 기관이 정부가 구체적으로 명시할 수 있도록 윤리에 관한 일반 원칙을 연구하고 보완할 것을 제안했습니다. 여기에는 인간 존중, 공정성, 안전, 투명성, 책임성, 지속가능한 발전의 원칙을 포함한 유네스코와 OECD의 가치에 대한 언급이 포함되어 있습니다. 또한 기업들이 이 프레임워크에 따라 자체 AI 윤리 강령을 개발하고 규정에 따라 국가 관리 기관에 공개하도록 장려합니다.

방문객들이 A80 전시장에 전시된 인간형 로봇 모형을 감상하고 있다. 설명용 사진
동시에, 연구부터 시스템 사용까지의 전 과정에 걸쳐 AI 시스템의 윤리적, 사회적 영향에 대한 이해관계자의 책임 원칙을 추가하는 방안을 연구하고, 윤리 규칙(권고)과 법적 의무(강제) 간의 관계를 명확히 한다.
또한, 과학기술환경위원회에 따르면, 이 법안 초안 제28조는 공공 부문의 윤리적 책임만을 규정하고 있으며, 민간 부문(예: 의료, 금융, 교육 등)에서의 AI 적용 또한 유사한 사회적·윤리적 영향을 초래할 수 있습니다. 따라서 법안 제정 기관은 민간 부문의 윤리적 책임에 대한 조항 추가를 연구하고 검토하여 법 조항의 포괄성을 확보할 것을 권고합니다.
어린이를 보호하기 위한 구체적인 규정을 추가하세요
과학, 기술, 환경 위원회 위원장인 응우옌 탄 하이는 법률 프로젝트 검토 보고서에서 다음과 같이 분명히 밝혔습니다. 어린이와 같은 취약 계층의 경우, AI는 다음과 같은 우려스러운 부정적인 측면도 가지고 있습니다 . 답을 찾거나 문제를 푸는 데 AI에 지나치게 의존할 경우, 어린이는 독립적으로 생각하고 분석하고 창의력을 발휘할 수 있는 능력을 연습할 기회를 잃을 위험이 있습니다. 또한, 일탈적인 행동을 하기 쉽습니다. AI를 진정한 친구로 착각하여 부적절하거나 위험한 AI의 조언에 따라 행동할 수 있습니다. 또한, 조작되거나 사기당할 수도 있습니다.

인공지능법은 어린이들을 AI의 부정적인 측면으로부터 보호하고, 어린이들이 안전하고 건강한 방식으로 AI를 사용할 수 있도록 안내하는 별도의 규정을 마련해야 합니다. 예시 사진
과학기술환경위원회 위원장인 응우옌 탄 하이는 다음과 같이 말했습니다. 이탈리아의 AI법은 14세 미만의 사람은 부모 또는 보호자의 동의가 있어야만 AI를 사용할 수 있다고 규정하고 있습니다. 최근 제안에 따르면 EU의 사용자는 부모의 동의 없이 AI를 사용하려면 16세 이상이어야 합니다. 미국 캘리포니아주의 AI 챗봇 관리법은 AI 플랫폼이 18세 미만의 사용자에게 3시간마다 사람이 아닌 챗봇과 채팅하고 있다는 사실을 명확하게 알려야 한다고 규정하고 있습니다.
이를 바탕으로 위원회 는 초안 작성 기관이 AI의 부정적 측면으로부터 어린이를 보호하고, 어린이가 안전하고 건강한 방식으로 AI를 사용하도록 안내하는 구체적인 규정을 연구하고 보완할 것을 권고합니다. 여기에는 부모와 학교가 어린이의 AI 인식을 모니터링하고 높이는 역할과 책임이 촉진됩니다.
출처: https://phunuvietnam.vn/can-co-che-de-bao-ve-tre-em-truoc-cac-mat-trai-cua-ai-20251121112842757.htm






댓글 (0)