![]() |
유네스코는 교실에서 인공지능(AI) 사용을 규제하기 위한 엄격한 규정을 촉구하고 있습니다. (사진: 링크드인) |
유네스코는 정부 에 대한 최신 지침에서 국가 당국이 학교에서 생성적 AI 프로그램을 구현하는 것과 관련된 문제를 해결할 준비가 아직 되어 있지 않다고 강조했습니다.
유네스코는 교사 대신 AI 프로그램을 사용하는 것이 아이들의 감정에 영향을 미치고 조종당할 위험에 처하게 할 수 있다고 밝혔습니다. 유네스코 지침은 AI 도구가 연구 보조원으로서 아이들을 도울 수 있는 잠재력을 가지고 있지만, 정부가 사용을 규제하고 교사, 학생, 연구자들이 도구 설계에 참여하는 경우에만 안전하고 효과적일 수 있다고 명시하고 있습니다.
실제로 AI는 세상을 변화시키고 일상생활을 편리하게 만들고 있습니다. AI 적용 덕분에 모든 분야에서 인간의 노동력이 크게 감소합니다.
하지만 AI가 야기하는 위험에 대한 경고가 점점 커지고 있습니다. 이 기술은 사이버 보안 세력과 사이버 범죄자들 사이에 새롭고 복잡하며 치열한 전쟁을 불러올 것으로 예상됩니다. 아이들은 AI가 가져다주는 기회의 수혜자이지만, 동시에 이 획기적인 기술의 위험에 가장 취약한 계층이기도 합니다.
AI가 전 세계적으로 널리 퍼지고 2023년에는 투자가 붐을 이룰 것으로 예상됨에 따라, 전 세계 입법자들은 이 새로운 기술이 국가 안보에 미치는 위험을 완화하는 방법을 시급히 고려하고 있습니다.
11월에 영국 정부는 AI 안전에 대한 글로벌 정상회의를 개최하여 AI가 잘못된 정보를 퍼뜨리는 데 사용되거나 선거에서 가짜 뉴스가 되는 것을 방지하고, 전쟁에서 이 기술이 사용되는 것을 방지하는 방법을 중점적으로 논의할 예정입니다.
지난 5월, 선진국을 대표하는 7개국(G7) 정상들은 AI 기술을 안전하고 신뢰성 있게 개발하기 위한 글로벌 표준을 요구했습니다.
AI의 급속한 발전은 여러 국가의 당국에 어려운 과제를 안겨주었습니다. 바로 혁신과 창의성을 촉진하는 동시에 이 기술의 잠재적 위험을 어떻게 통제할 것인가 하는 문제입니다. AI 제품의 이점에도 불구하고, 많은 기술 기업들은 엄격한 관리 감독 없이는 이 기술이 초래할 수 있는 위험 수준에 대해 여전히 경고하고 있습니다.
마이크로소프트 사장 브래드 스미스는 최근 AI가 유용한 도구가 될 잠재력을 가지고 있지만, 인간의 통제를 벗어나면 인류에 대한 무기가 될 위험도 있다고 말했습니다. 브래드 스미스 씨는 기술 기업들이 모든 상황에서 안전을 보장하기 위한 새로운 규정과 정책을 마련하는 등 옳은 일을 하도록 장려해야 한다고 강조했습니다.
OpenAI CEO 샘 알트만 또한 AI의 잠재적 위험을 경고하고 이러한 위험을 줄여야 할 필요성을 강조했습니다. Anthropic, Google, Microsoft, OpenAI를 포함한 4대 기술 기업은 안전 기준을 마련하기 위해 프론티어 모델 포럼(Frontier Model Forum)이라는 새로운 그룹을 결성했습니다. 포럼의 주요 목표는 다음과 같습니다. 개발 지원 및 위험 감소를 위한 안전한 AI 연구 촉진, 대중이 기술의 본질, 역량, 한계 및 영향을 이해하도록 지원, 정책 입안자 및 학자들과 협력하여 위험 및 안전에 대한 지식 공유...
AI 활용은 전 세계적으로 거스를 수 없는 추세입니다. AI가 진정으로 인간의 삶에 기여할 수 있도록 개발 전략을 수립하는 것은 미래 세대가 인공지능과 함께 안전하게 살아갈 수 있도록 준비하는 데 필수적인 단계입니다.
원천
댓글 (0)