2023년, 과학자들은 AI가 세상을 구할지, 아니면 파괴할 것인지에 대해 많은 논쟁을 벌이고 있습니다. 언젠가 인공지능이 현실을 압도할 것이라는 예감이 듭니다. 2023년 AI에 대한 주요 논쟁 중 하나는 교육 분야에서 ChatGPT와 관련 챗봇의 역할을 둘러싼 것입니다. 당시 대부분의 이야기는 학생들이 이 도구를 이용해 시험 부정을 저지를 수 있다는 점에 집중되었고, 이로 인해 교육자들은 AI 사용을 금지해야 했습니다. 1년 후, 학생들에게 AI에 대해 가르치지 않는 것이 불리하게 작용할 수 있다는 사실이 밝혀졌고, 많은 학교들이 이 금지 조치를 철회했습니다. 많은 국가들이 AI를 모든 것의 중심에 두기 위해 교육 시스템 개혁을 고려하기 시작했습니다.
2024년, 인공지능은 교육 산업에 획기적인 발전을 가져올 것으로 기대됩니다(그림: Medium).
하지만 학생들이 AI의 작동 방식을 배우지 않으면 매우 위험할 수 있습니다. 이는 교육 분야뿐만 아니라 모든 분야에서 마찬가지입니다. 사람들이 AI의 작동 방식을 더 잘 이해할수록 AI를 선한 목적으로 활용할 수 있는 역량이 더욱 강화됩니다. 따라서 2024년은 AI가 학교에 큰 영향을 미치는 해가 될 것입니다. 전 세계 많은 대학들이 이 기술을 교육에 통합하기 위해 AI 엔지니어를 채용하기 위해 앞다퉈 나서고 있습니다. 물론 예상치 못한 결과가 발생할 수 있지만, 과학자들은 기술 기업들이 AI 모델을 경청하고 수정하여 점진적으로 미래에 훌륭한 도구로 발전시켜 나가기를 기대합니다.
이로운 것보다 해로운 것이 더 많은가?
AI 경쟁이 본격화되었습니다. 2022년 ChatGPT의 광범위한 출시는 이 기술을 통해 수익, 명예, 그리고 세계 시장을 장악하기 위한 치열한 경쟁을 시작했습니다. 많은 사람들이 더욱 강력한 AI와 올해 출시될 다양한 AI 통합 애플리케이션을 기대하고 있습니다. 그중 하나는 인간처럼 추론하고 논리적으로 사고할 수 있는 AI입니다. 수많은 과학자들이 이를 연구하고 개발하고 있습니다. 혁신적인 AI 통합 애플리케이션은 새로운 이점을 창출할 것입니다. 머지않아 챗봇과 AI 비서가 서로 대화하며, 사용자를 대신하여 모든 대화를 진행하는 모습을 보게 될지도 모릅니다. 이러한 엄청난 이점과 더불어, 기술 기업들이 사용자 보호 조치를 마련하지 않는다면 우리에게도 마찬가지로 해로운 결과를 초래할 것입니다.
AI 기반 딥페이크 기술을 발견하는 것이 점점 더 어려워지고 있습니다.
딥페이크 기술은 AI가 생성한 이미지나 영상으로, 탐지가 매우 어려워 사이버 범죄자들이 사기, 협박, 사생활 침해는 물론, 민감한 영상에 얼굴을 삽입하여 명예를 훼손하는 등 모든 사람에게 피해를 입히는 데 악용될 수 있습니다. 실제로 2023년에는 베트남을 포함한 전 세계의 유명 정치인 , 가수, 배우들이 딥페이크 기술의 희생자가 될 것입니다. 각국이 AI를 통제할 대책을 마련하지 않으면, 5년 전만 해도 허구에 불과했던 새로운 재앙을 만들어낼 수 있습니다. 스페이스X CEO 일론 머스크는 AI에 대해 가장 큰 경고를 내놓으며, 정부가 이 기술을 안전하게 사용할 수 있도록 규제해 주기를 바라고 있습니다. 따라서 올해 전 세계 각국은 인공지능 관련 규제를 더욱 강화할 가능성이 있습니다.
2024년의 새로운 세대 AI
ChatGPT 출시 이후, 일반 AI 모델은 빠른 속도로 계속 발전해 왔습니다. 2023년 ChatGPT가 입력으로 텍스트만, 출력으로 텍스트를 사용했다면, 2024년에는 과학자들이 모든 플랫폼에서 비디오 , 오디오, 이미지를 포함한 다양한 미디어 소스의 데이터를 사용하는 멀티모달 AI 모델을 기대합니다. 새로운 세대의 멀티모달 대규모 언어 모델(LLM)을 통해 AI는 텍스트 입력을 사용하여 이미지나 텍스트뿐만 아니라 오디오 및 비디오 콘텐츠도 생성할 수 있습니다. 기술 회사들은 스마트폰 통합을 포함하여 다양한 유형의 하드웨어 및 애플리케이션에 배포할 수 있도록 LLM을 개발하기 위해 경쟁하고 있습니다. 이를 통해 자율 AI가 새로운 세계로 나아갈 수 있습니다. 이 기능은 비즈니스부터 의학까지 모든 분야의 애플리케이션에 AI의 엄청난 혁신적 힘을 가져올 것입니다. 과학자들의 주요 우려는 이러한 고급 기능이 인간과 AI가 생성한 콘텐츠를 구별하는 데 새로운 과제를 제기하고 새로운 해악을 초래할 것이라는 것입니다.
2024년에는 AI가 여러분과 대화할 수 있는 새로운 세대를 많이 갖게 될 것입니다(그림: LinkedIn).
AI가 생성한 합성 콘텐츠의 홍수는 사이버 범죄자와 극단주의 단체가 세상에 진출할 수 있는 문을 열어줄 수 있습니다. 이들은 AI를 이용하여 합성 신원을 만들거나 전 세계적으로 허위 정보를 조작할 수 있으며, 이는 세계 안보에 매우 해로울 것입니다. 미국 연방거래위원회(FTC)는 AI 생성 콘텐츠로 인한 사기, 기만, 개인정보 침해, 비윤리적 관행에 대해 경고했습니다. 유튜브와 같은 디지털 플랫폼은 AI 생성 콘텐츠 공개 정책을 수립했지만, FTC와 같은 기관과 의원들은 시민의 개인정보를 보호하기 위한 새로운 방안을 모색하고 있습니다. AI가 인간의 삶에 점점 더 깊이 자리 잡으면서, 이제 우리는 AI를 더 이상 기술의 일부인 알고리즘으로 간주하지 않고, AI가 인간 및 사회와 함께 작동하는 맥락을 고려해야 합니다. 그래야 AI가 우리와 안전하고 유익하게 공존할 수 있습니다.
댓글 (0)