AI는 아이들이 주변 세계 와 상호작용하고 배우는 방식을 바꿀 뿐만 아니라, 새로운 기회를 열어주고 아이들에게 안전하고 번영하는 환경을 보장하는 데 큰 과제를 안겨줍니다.
인공지능(AI)은 점점 더 중요한 분야가 되어가고 있으며 현대 생활의 여러 측면에 큰 영향을 미치고 있습니다. |
편리함에는 위험이 따른다
AI는 지능과 연산 능력을 갖추고 있어 어린이를 포함한 모든 인간의 삶에 없어서는 안 될 부분이 되었습니다. AI는 아이들이 인터넷에 접속할 때마다 트렌드를 만들어내며 학습 프로그램, 오락 등에 방해가 됩니다. 많은 이점과 편의성을 제공하지만 개인정보 보호, 안전, 심리적, 행동적 영향 등 어린이에게 위험을 초래할 수도 있습니다.
AI는 베트남 어린이들의 교육 시스템과 학습 방법을 개선하는 데 획기적인 발전을 가져왔습니다. 많은 기회를 열어주고, 어린이들의 기술을 향상시키고 개발하는 데 도움을 줍니다. 사이버공간에서 대화형 학습 애플리케이션을 제공합니다. 개인화된 지원 흥미롭고 매력적인 학습 환경을 조성하세요... 어린이들은 방대한 지식 저장소와 연습 문제에 접근하고 AI 시스템으로부터 즉각적인 피드백을 받을 수 있습니다.
현재 베트남에서는 Hocmai.vn, VnEdu, GoMaths, STEM 젊은 과학 및 기술, Codelearn, CoderSchool 등 많은 학교에서 AI 기술을 적용한 소프트웨어와 온라인 교육 프로그램을 활용하고 있습니다.
어린이의 사고력과 창의력은 스마트 비디오 게임(Garena Lien Quan Mobile, PUBG Mobile 또는 Foody Crush)이나 페인팅 애플리케이션(Colorize, Adobe Photoshop) 등 AI 기반 소프트웨어에서 엔터테인먼트 및 놀이 활동을 수행할 때 개발됩니다.
이러한 소프트웨어는 편안한 시간과 독특한 엔터테인먼트 경험을 제공할 뿐만 아니라, 어린이의 지능, 창의력, 논리력을 자극합니다.
AI는 지능과 편의성을 바탕으로 어린이들에게 더 쉽고 자동화되고 편리한 삶을 가져다줍니다. Siri, Google Assistant, Grab 등의 가상 비서와 같은 애플리케이션은 더 이상 낯선 것이 아니며 아이들이 스마트폰을 제어하여 정보를 검색하고, 자동차를 예약하고, 온라인 쇼핑을 하거나 일정을 조정하는 등 일상 활동을 지원하면서 능숙하게 활용되고 있습니다. AI는 세탁기, 스마트 냉장고 등의 스마트 가전제품, 음성 제어에도 적용되어 아이들의 요구와 삶에 최상의 서비스를 제공하고 있습니다.
하지만 AI가 가져오는 위험은 작지 않습니다. AI는 인간이 기계와 상호작용하는 방식은 물론, 인간과 인간 사이의 상호작용 방식도 변화시키고 있습니다. 어린이의 심리와 행동에 영향을 미칩니다. 사생활 침해
요즘 아이들은 기술, 특히 AI를 활용한 스마트 소프트웨어와 애플리케이션에 지나치게 의존하고 있습니다. 아이들이 기술과 상호작용하는 시간이 길어질수록 우울증, 행동 장애, 중독에 걸릴 가능성이 높아지고, 특히 학습 측면에서 AI에 과도하게 의존하게 되어 사고, 연구, 작업 및 주도적인 행동 능력이 저하됩니다.
그뿐 아니라 AI는 스마트한 알고리즘을 통해 쉽게 개인 생활에 침투하여 관심사, 개인 정보, 이미지 등 모든 정보를 손쉽게 수집할 수 있습니다. 아이들의 삶과 비밀을 더 이상 안전하지 않게 만듭니다. 특히 어린이는 위험을 이해하고 평가할 능력이 없고, 개인 정보, 이미지 등을 제공하는 것이 심각한 결과를 초래할 수 있다는 사실을 깨닫지 못합니다.
그뿐만 아니라, 어린이는 부적절한 정보에 접근할 위험도 있습니다. 모든 AI 계산은 선택이나 제어 없이 복제, 즉 "기계적" 계산에 기반을 두고 있기 때문에 가짜 뉴스, 음란물, 타락, 폭력 등 나쁘고 유해한 정보를 가져올 수 있습니다.
또한 교육 분야에서 AI가 발전하면서 오늘날의 어린이들 사이에는 의도치 않게 불평등, 압박, 비교가 생겨났습니다.
최근 유엔 아동 기금도 AI와 관련된 어린이들의 위험에 대해 경고하면서, 일부 학교에서는 기계를 이용해 입학 지원을 진행하지만 실수로 특정 학생 집단을 배제하는 경우가 있어 AI가 불평등과 편견을 심화시킬 수 있다고 언급했습니다. 혹은 AI 알고리즘이 다른 사람과 베이비시팅을 비교하도록 조장하여 자기 불만을 유발할 수도 있습니다. 이는 어린이의 자존감과 정신 건강에 부정적인 영향을 미칠 수 있습니다.
또 다른 중요한 위험은 사람과 사람 사이의 연결 불균형입니다. AI와 기술에 지나치게 의존하면 어린이의 사회적 기술, 대면 의사소통, 관계 구축 능력이 저하될 수 있습니다. 이는 특히 감정과 행동 측면에서 아이의 전반적인 발달에 부정적인 결과를 초래할 수 있습니다. 아이들은 감정을 조절하고 표현하는 방법을 모릅니다. 주변 사람들과 어떻게 상호작용해야 할지 모르겠어요
서비스 제공업체가 공개한 데이터에 따르면, 2023년 3월 현재 vnEdu는 전국 57개 성·시에서 사용되고 있으며, 전국 9,000개 학교의 300만 건 이상의 학생 기록이 등록되어 있습니다. 고등학생 연령대 학생만 포함하더라도 FUNiX는 현재 3,090명의 학생이 프로그래밍 과정에 참여하고 있습니다. 2020년 말까지 hocmai.vn에는 450만 명이 넘는 학생이 등록되어 공부하고 있습니다. |
AI의 위험으로부터 어린이를 보호하다
어린이의 경우 AI를 사용할 때는 어른의 주의와 세심한 감독이 필요합니다. 가장 중요한 것은, 아이들이 기술을 안전하게 사용하도록 교육하고 지도하는 것이 중요하다는 것입니다. 기술적 진보와 아동 발달의 다른 요소 간의 균형을 유지합니다. 따라서 어린이들이 AI에 안전하게 접근하고 사용할 수 있도록 올바른 인식과 합리적인 해결책이 필요합니다.
첫째, 어린이를 위한 안전한 기술 환경을 조성하는 것이 필요합니다. 국가와 관련 당국은 AI 기술을 활용한 애플리케이션과 소프트웨어를 출시하기 전에 콘텐츠 검열과 관련된 규정을 발표해야 합니다. 서비스 제공자는 어린이와 관련된 콘텐츠에 대한 경고를 제공해야 합니다.
둘째, 어린이들이 AI의 위험으로부터 스스로를 보호할 수 있도록 하기 위해서는 인식 교육이 가장 중요한 대책입니다. 아이들은 AI, 기술, 공학 등에 대한 기본 지식을 갖추어야 하며, 기술과 소셜 네트워크를 활용하는 소프트 스킬도 갖춰야 합니다.
특히 어린이를 대상으로 한 이러한 애플리케이션의 안전하지 않은 위험과 부정적인 측면에 대한 경고와 함께 기술 및 스마트 애플리케이션의 사용 방법에 대한 지침을 통합하고, 개인정보 보호 및 온라인 책임에 대한 기본적인 인식을 제공합니다.
셋째, 어린이의 AI 기술 사용을 모니터링하고 관리할 수 있는 대책이 필요합니다. 즉, 어린이가 이러한 기술에 "자유롭게" 접근하는 것을 허용하지 않는다는 의미입니다. 관리에는 어린이의 안전을 보장하기 위한 시간, 내용, 사용 형태에 대한 관리가 포함될 수 있습니다. 아이들에게 원치 않는 결과와 영향을 피하세요. 여기에는 기술 사용에 대한 규칙 설정, 어린이의 온라인 활동 모니터링, 어린이가 마음을 열고 편안하게 공유할 수 있는 대화와 토론 환경 조성 등이 포함됩니다.
앞으로 사이버 공간에서의 아동 보호는 아동 보호 활동에서 특별한 관심이 필요할 것입니다. (출처: 인터넷) |
넷째, 어린이가 AI에 접근하고 사용하는 데 대한 지침이 필요합니다. 아이들이 AI 기술을 단지 오락 목적으로만 사용하도록 방치하면 부정적인 영향을 받기 쉽기 때문에, 부모는 아이들이 AI 기술을 창의적이고 유용하게 사용하도록 장려해야 합니다. 어린이가 학습, 연구, 사고, 창의성을 발휘할 수 있도록 유용한 소프트웨어와 애플리케이션에 접근하도록 안내합니다.
다섯째, 아이들이 AI를 수동적으로 사용하지 않고 그 기능을 충분히 활용할 수 있도록 하기 위해서는 아이들에게 생활기술과 비판적 사고력을 키워주는 것이 필요하다. 특히, 어린이들에게 정보 평가 능력, 분석적 사고력, 문제 해결 능력, 그룹 활동 능력을 갖추게 하면 어린이들이 AI에 의존하지 않고 잠재적 위험으로부터 스스로를 보호하며 기술을 진정으로 익힐 수 있습니다.
이러한 장비는 생활 기술, 기술 사용 및 숙달 기술, 학대, 침해 및 유해한 콘텐츠와 같은 온라인 위험으로부터 자신을 보호하는 방법에 대한 프로그램과 과정을 조직함으로써 얻을 수 있습니다.
여섯째, AI 문제에 대처하기 위해서는 학부모, 교사, 학교, 당국, 서비스 제공자 간의 협력이 필요합니다. 이 법은 AI로 인한 위험으로부터 어린이를 보호하는 데 있어 당사자들의 책임을 명확히 정의합니다.
또한, 아동의 사생활과 개인정보를 보호하기 위한 명확한 정책과 규정이 있어야 합니다. AI 서비스 제공자는 안전한 환경을 제공하고 어린이를 학대 행위로부터 보호하기 위해 개인정보 보안에 대한 노력을 기울여야 합니다.
베트남에서는 어린이를 대상으로 한 AI 훈련 프로그램이 아직은 매우 새롭고 널리 보급되지 않았습니다. 여러 기관, 교육 센터, 회사에서는 로봇공학, 프로그래밍 수업 등 어린이를 대상으로 AI 교육 활동을 시작하여 어린이에게 체험하고 학습할 수 있는 기회를 제공하고 있습니다.
그러나 베트남의 어린이를 위한 AI 교육 프로그램을 교육의 필수적인 부분으로 만들기 위해서는 정부와 관련 기관의 투자와 지원이 필요합니다.
AI가 어린이에게 미치는 영향을 이해하고 해결하는 것이 중요합니다. 우리는 AI 기술이 가져다주는 기회를 활용해야 하며, 동시에 AI와 상호작용하는 동안 어린이가 보호받고 안전하도록 해야 합니다.
새로운, 공정하고 다양한 교육 환경을 구축하기 위해서는 국가, 당국, 가정, 학교, 서비스 제공자 간의 긴밀한 협력이 필요합니다. 어린이가 AI를 이해하고 지능적이고 안전하게 사용할 수 있도록 지원합니다. 오직 그럴 때에만 우리는 아이들이 AI의 발전으로부터 혜택을 받고 성장하며, 미래에 자신감 있고 창의적인 개인으로 성장하고 사회에 긍정적으로 기여할 수 있도록 보장할 수 있습니다.
어린이를 위한 AI 기술 활용 규칙에 대한 몇 가지 제안- 사용시간: 학습시간과 놀이시간을 명확히 구분하고, 어린이가 엔터테인먼트에 사용하는 시간을 제한하는 등 AI 기술 사용 시간을 명확히 정의합니다. 학교 시간 동안 허용되지 않는 행동을 제한하세요… - 애플리케이션 콘텐츠 : 어린이가 사용하는 AI 소프트웨어의 콘텐츠를 관리하고 제어합니다. 아이들이 무엇을 배우고, 놀고, 탐구하는지 이해합니다. 아이들이 무엇을 할 수 있고, 무엇을 할 수 없는지 명확하게 설명하세요. - 아동 개인정보 : 아동 개인정보를 엄격히 관리합니다. 자녀에게 성명, 학교, 주소, 집 번호, 전화번호 등의 개인 정보를 절대로 공개하지 않도록 규칙을 정하세요. 아이들에게 이러한 정보는 다른 사람들이 수집하여 나쁜 목적으로 사용할 수 있다는 것을 설명해 주세요. - 아이들이 규칙을 따르지 않을 경우 처벌을 정하세요. 아이에게 이것을 하라고 하기 전에 아이와 상의해야 합니다. 동시에 부모는 자녀에게 습관을 심어주기 위해 처벌 사이에도 확고하고 일관된 태도를 유지해야 합니다. - 친구가 초대할 때 거절하는 방법을 아이들에게 가르쳐주세요. |
(*) 공안부 사이버보안 및 첨단범죄예방국.
[광고_2]
원천
댓글 (0)