AI는 아이들이 주변 세계 와 상호작용하고 배우는 방식을 바꿀 뿐만 아니라, 새로운 기회를 열어주고 아이들에게 안전하고 번영하는 환경을 보장하는 데 큰 과제를 안겨줍니다.
인공지능(AI)은 점점 더 중요한 분야가 되어가고 있으며 현대 생활의 여러 측면에 큰 영향을 미치고 있습니다. |
편리함에는 위험이 따른다
AI는 지능과 연산 능력을 바탕으로 어린이를 포함한 인간 생활에 없어서는 안 될 부분이 되었습니다. AI는 아이들이 인터넷에 접속할 때마다 학습 프로그램, 엔터테인먼트 등에 지장을 주어 새로운 트렌드를 만들어냅니다. AI는 많은 이점과 편의성을 제공하지만, 개인정보 보호, 안전, 심리적·행동적 영향 등 어린이에게 위험을 초래하기도 합니다.
AI는 베트남 어린이의 교육 시스템과 학습 방법을 개선하는 데 획기적인 발전을 이루었습니다. 많은 기회를 열어 어린이의 기술을 향상시키고 개발하는 데 도움이 되었으며, 사이버 공간에서 대화형 학습 애플리케이션을 제공하고 개인화를 지원하며 흥미롭고 매력적인 학습 환경을 조성했습니다. 어린이는 방대한 지식과 연습 문제에 접근하고 AI 시스템으로부터 즉각적인 피드백을 받을 수 있습니다.
현재 베트남에서는 Hocmai.vn, VnEdu, GoMaths, STEM 젊은 과학 및 기술, Codelearn, CoderSchool 등 많은 학교에서 AI 기술을 적용한 소프트웨어와 온라인 교육 프로그램을 활용하고 있습니다.
어린이의 사고력과 창의력은 스마트 비디오 게임(Garena Lien Quan Mobile, PUBG Mobile 또는 Foody Crush)이나 페인팅 애플리케이션(Colorize, Adobe Photoshop) 등 AI 기반 소프트웨어에서 엔터테인먼트 및 놀이 활동을 수행할 때 개발됩니다.
이러한 소프트웨어는 편안한 시간과 독특한 엔터테인먼트 경험을 제공할 뿐만 아니라, 어린이의 지능, 창의력, 논리력을 자극합니다.
AI는 지능과 편의성을 바탕으로 아이들에게 더 쉽고, 자동화되고, 편리한 삶을 선사합니다. Siri, Google Assistant, Grab과 같은 가상 비서 애플리케이션은 더 이상 낯선 것이 아니라 아이들이 스마트폰을 통해 정보 검색, 자동차 예약, 온라인 쇼핑, 일정 관리 등 일상생활을 지원하는 데 활용되고 있습니다. AI는 스마트 가전제품, 세탁기, 스마트 냉장고 등의 음성 제어에도 적용되어 아이들의 필요와 삶에 최상의 서비스를 제공하고 있습니다.
하지만 AI가 초래하는 위험은 결코 작지 않습니다. AI는 사람과 기계, 그리고 사람 사이의 상호작용 방식을 변화시키고 있으며, 아이들의 심리와 행동에 영향을 미치고, 기밀 유지와 사생활 침해를 초래하고 있습니다.
요즘 아이들은 기술, 특히 AI를 활용하는 스마트 소프트웨어와 애플리케이션에 지나치게 의존하고 있습니다. 아이들이 기계와 상호작용하는 시간이 길어질수록 우울증, 행동 장애, 심지어 중독에 시달릴 가능성이 높아지고, 특히 학습 측면에서 AI에 과도하게 의존하게 되어 사고, 연구, 학습, 그리고 주도적인 행동 능력이 저하됩니다.
뿐만 아니라, AI는 스마트 알고리즘을 통해 아이들의 사생활에 쉽게 침투하여 취미, 개인 정보, 이미지 등 아이들의 모든 정보를 쉽게 수집할 수 있습니다. 아이들의 삶과 비밀은 더 이상 안전하지 않습니다. 특히 아이들이 위험을 이해하고 평가할 능력이 부족하여 개인 정보, 이미지 제공의 심각한 결과를 인지하지 못하는 경우 더욱 그렇습니다.
뿐만 아니라 아이들은 부적절한 정보에 접근할 위험도 있습니다. 모든 AI 계산은 선택이나 통제 없이 복제, 즉 "기계적" 계산에 기반하기 때문에 가짜 뉴스, 음란물, 타락, 폭력 등 유해하고 해로운 정보를 가져올 수 있습니다.
또한 교육 분야에서 AI가 발전하면서 오늘날의 어린이들 사이에는 의도치 않게 불평등, 압박, 비교가 생겨났습니다.
최근 유엔아동기금(UNICEF)은 AI와 관련된 아동의 위험에 대해 경고했습니다. 일부 학교에서 입학 지원서 분류에 기계를 사용하지만, 이로 인해 의도치 않게 특정 학생 집단이 배제되는 등 AI가 불평등과 편견을 심화시킬 수 있다는 점을 언급했습니다. 또한 AI 알고리즘이 아동을 다른 사람과 비교하게 만들어 자신에 대한 불만족을 유발할 수도 있습니다. 이는 아동의 자신감과 정신 건강에 부정적인 영향을 미칠 수 있습니다.
또 다른 중요한 위험은 사람들 간의 불균형과 단절입니다. AI와 기술에 대한 과도한 의존은 아이들의 사회성, 직접적인 소통, 그리고 관계 형성 능력을 저하시킬 수 있습니다. 이는 아이들의 전반적인 발달, 특히 감정과 행동 발달에 부정적인 영향을 미칠 수 있습니다. 아이들은 자신의 감정을 조절하고 표현하는 방법을 배우지 못하게 되고, 주변 사람들과 어떻게 소통해야 할지 배우지 못하게 됩니다.
서비스 제공업체가 공개한 데이터에 따르면, 2023년 3월 현재 vnEdu는 전국 9,000개 학교의 300만 명 이상의 학생 기록과 함께 57개 성 및 도시에서 사용되고 있습니다. 고등학생 연령 학생만 계산하더라도 FUNiX는 현재 3,090명의 학생이 프로그래밍 과정에 참여하고 있습니다. 2020년 말까지 hocmai.vn에는 450만 명이 넘는 학생이 등록하여 공부하고 있습니다. |
AI의 위험으로부터 어린이를 보호하다
어린이의 AI 사용은 어른의 주의와 세심한 감독이 필요합니다. 가장 중요한 것은 어린이가 기술을 안전하게 사용하도록 교육하고 지도하는 것입니다. 동시에 기술 발전과 아동 발달에 영향을 미치는 다른 요소들 간의 균형을 유지하는 것이 중요합니다. 따라서 어린이가 AI에 안전하게 접근하고 사용할 수 있도록 적절한 인식과 합리적인 해결책이 필요합니다.
첫째, 아동에게 안전한 기술 환경을 조성해야 합니다. 국가와 관련 기관은 AI 기술을 활용한 애플리케이션과 소프트웨어를 출시하기 전에 콘텐츠 검열 관련 규정을 마련해야 합니다. 특히, 서비스 제공업체는 아동 관련 콘텐츠에 대한 경고문을 게재해야 합니다.
둘째, 인식 교육은 아이들이 AI 위험으로부터 스스로를 보호할 수 있도록 돕는 가장 중요한 조치입니다. 아이들은 AI, 기술, 공학 등에 대한 기본 지식은 물론, 기술 및 소셜 네트워크 활용에 필요한 소프트 스킬을 갖춰야 합니다.
특히 어린이를 대상으로 한 이러한 애플리케이션의 안전하지 않은 위험과 부정적인 측면에 대한 경고와 함께 기술 및 스마트 애플리케이션의 사용 방법에 대한 지침을 통합하고, 개인정보 보호 및 온라인 책임에 대한 기본적인 인식을 제공합니다.
셋째, 아동의 AI 기술 사용을 모니터링하고 관리할 수 있는 조치가 필요합니다. 즉, 아동이 이러한 기술에 "자유롭게" 접근하지 못하도록 해야 합니다. 관리는 아동의 안전을 보장하고 원치 않는 결과와 영향을 방지하기 위해 사용 시간, 내용, 사용 형태에 관한 것일 수 있습니다. 여기에는 기술 사용 관련 규정 수립, 아동의 온라인 활동 모니터링, 그리고 아동이 자유롭게 의견을 나누고 공유할 수 있는 채팅 및 토론 환경 조성이 포함됩니다.
앞으로 사이버 공간에서의 아동 보호는 아동 보호 활동에서 특별한 관심을 필요로 합니다. (출처: 인터넷) |
넷째, 아이들의 AI 접근 및 활용에 대한 지침이 필요합니다. 아이들이 AI 기술을 단순히 오락 목적으로만 사용하게 두면 부정적인 영향을 받기 쉽습니다. 부모는 아이들이 AI 기술을 창의적이고 유용하게 사용하도록 장려해야 합니다. 또한, 아이들이 학습, 연구, 사고, 창의력 향상 등에 유용한 소프트웨어와 애플리케이션을 접하도록 지도해야 합니다.
다섯째, 아이들이 AI를 수동적으로 사용하지 않고 그 기능을 최대한 활용하기 위해서는 생활 기술과 비판적 사고 능력을 함양해야 합니다. 여기에는 아이들이 정보를 평가하고, 분석적으로 사고하고, 문제를 해결하고, 집단 활동을 할 수 있는 능력을 갖추도록 하는 것이 포함됩니다. 이를 통해 아이들은 AI에 의존하지 않고, 잠재적 위험으로부터 스스로를 보호하며, 기술을 진정으로 숙달할 수 있게 됩니다.
이러한 장비는 생활 기술, 기술 사용 및 숙달 기술, 학대, 침해 및 유해한 콘텐츠와 같은 온라인 위험으로부터 자신을 보호하는 방법에 대한 프로그램과 과정을 조직함으로써 얻을 수 있습니다.
여섯째, AI의 도전에 대처하기 위해서는 부모, 교사, 학교, 당국, 그리고 서비스 제공자 간의 협력이 필요합니다. 여기에는 AI의 위험으로부터 어린이를 보호하기 위한 각 당사자의 책임을 명확하게 정의하는 것이 포함됩니다.
또한, 아동의 사생활과 개인정보를 보호하기 위한 명확한 정책과 규정이 있어야 하며, AI 서비스 제공자는 안전한 환경을 제공하고 아동을 학대로부터 보호하기 위해 개인정보를 보호하겠다는 의지를 가져야 합니다.
베트남에서는 어린이를 위한 AI 교육 프로그램이 아직 생소하고 널리 보급되지 않았습니다. 일부 기관, 교육 센터, 기업들은 로봇 공학 및 프로그래밍 수업과 같은 어린이용 AI 교육 활동을 시행하여 어린이들에게 체험하고 학습할 기회를 제공하고 있습니다.
그러나 베트남의 어린이를 위한 AI 교육 프로그램을 교육의 필수적인 부분으로 만들기 위해서는 정부와 관련 기관의 투자와 지원이 필요합니다.
AI가 어린이에게 미치는 영향을 이해하고 해결하는 것은 매우 중요합니다. AI 기술이 제공하는 기회를 최대한 활용하는 동시에, 어린이들이 AI와 상호작용할 때 안전하고 안전하게 보호받을 수 있도록 해야 합니다.
새롭고 공정하며 다양한 교육 환경을 구축하기 위해서는 국가, 당국, 가정, 학교, 그리고 서비스 제공자 간의 긴밀한 협력이 필요합니다. 이를 통해 아이들이 AI를 지능적이고 안전하게 이해하고 활용할 수 있도록 지원해야 합니다. 그래야만 아이들이 AI의 발전으로부터 혜택을 받고 성장하며, 자신감 있고 창의적인 사람으로 성장하고 미래 사회에 긍정적으로 기여할 수 있습니다.
어린이를 위한 AI 기술 활용 규칙에 대한 몇 가지 제안- 사용 시간: AI 기술을 사용할 수 있는 시간을 명확히 정의하고, 공부 시간과 놀이 시간을 명확히 구분하며, 어린이가 엔터테인먼트에 사용하는 시간을 제한합니다. 공부 시간에 허용되지 않는 행동을 제한합니다. - 애플리케이션 콘텐츠: 어린이가 사용하는 AI 소프트웨어의 콘텐츠를 관리하고 제어합니다. 어린이가 무엇을 배우고, 놀고, 탐구하는지 파악합니다. 어린이가 할 수 있는 일과 할 수 없는 일을 명확하게 정의합니다. - 아동 개인정보: 아동 개인정보를 엄격히 관리합니다. 아동에게 성명, 학교, 주소, 집 번호, 전화번호 등의 개인정보를 절대로 공개적으로 공개하지 않는다는 원칙을 설정합니다. 아동에게 이러한 정보가 타인에 의해 수집되어 악의적인 목적으로 사용될 수 있음을 설명합니다. - 아이가 규칙을 따르지 않을 때 벌을 정해 주세요. 아이에게 규칙을 따르도록 요구하기 전에 아이와 상의해야 합니다. 동시에, 부모는 아이의 습관을 형성하기 위해 벌을 내리는 사이에도 단호하고 일관된 태도를 유지해야 합니다. - 친구가 초대할 때 거절하는 방법을 아이들에게 가르쳐주세요. |
(*) 공안부 사이버보안 및 첨단범죄예방국.
[광고_2]
원천
댓글 (0)