인공지능(AI)의 폭발적인 발전은 인류에게 엄청난 혜택을 가져다주었지만, 인종적 편견, 정교한 온라인 사기, 개발도상국이 값싼 "데이터 마인"이 될 위험 등 수많은 결과도 초래했습니다.
이러한 현실을 고려할 때, AI의 책임 있는 사용은 자발적이어야 할까요, 아니면 의무적이어야 할까요? 베트남은 이 분야의 법적 통로를 구축할 때 무엇을 해야 할까요?
VinFuture 과학 기술주간 행사에 맞춰 기자는 미국 컴퓨터 학회 회원이자 뉴사우스웨일즈 대학교(호주)의 토비 월시 교수와 대화를 나누었습니다.
교수는 AI에 대해 우리가 어떻게 "행동"해야 하는지에 대한 통찰력을 제공합니다. 예를 들어, "기계"에 책임을 묻는 것부터 가족이 첨단 기술 사기의 물결로부터 자신을 보호하기 위한 팁까지 제공합니다.
AI에 대한 책임은 누구에게 있는가?
교수님, AI의 책임 있는 사용은 자발적이어야 할까요, 아니면 의무적이어야 할까요? 그리고 우리는 실제로 AI에 대해 어떻게 행동해야 할까요?
- 저는 AI의 책임감 있는 사용이 의무화되어야 한다고 굳게 믿습니다 . AI로 막대한 돈이 벌어지는 상황에서는 역효과가 있는 인센티브가 작용하고 있으며 , AI의 올바른 행동을 보장하는 유일한 방법은 엄격한 규제 를 부과하여 공익과 상업적 이익이 항상 균형을 이루도록 하는 것입니다 .
AI가 실수를 하면 누가 책임을 져야 할까요? 특히 AI 에이전트의 경우, 우리가 그 작동 메커니즘을 고칠 수 있을까요?
AI가 실수를 저지르는 근본적인 문제는 우리가 AI에게 책임을 물을 수 없다는 것입니다. AI는 인간이 아니며, 이는 전 세계 모든 법률 시스템의 결함입니다. 오직 인간만이 자신의 결정과 행동에 대해 책임을 질 수 있습니다.

갑자기, 우리에게는 새로운 "대리인"인 AI가 생겼습니다. 우리가 허용한다면, AI는 우리 세상에서 결정을 내리고 행동을 취할 수 있습니다. 이는 누구에게 책임을 물을 것인가라는 과제를 제기합니다.
답은 다음과 같습니다. AI 시스템을 구축하고 운영하는 회사는 이러한 "기계"가 초래하는 결과에 대해 책임을 져야 합니다.
많은 기업들이 책임감 있는 AI에 대해 이야기합니다. 어떻게 그들을 신뢰할 수 있을까요? 그들이 진지하고 포괄적이며, 단순히 "책임감 있는 AI"를 마케팅 전략으로만 활용하는 것이 아니라는 것을 어떻게 알 수 있을까요?
- 투명성을 높여야 합니다. AI 시스템의 역량과 한계를 이해하는 것이 중요합니다. 또한 "행동을 통한 투표", 즉 책임감 있는 서비스 사용을 선택해야 합니다.
저는 기업이 AI를 책임감 있게 사용하는 방식이 시장에서 차별화 요소가 되어 상업적 이점을 얻을 수 있다고 믿습니다.
기업이 고객 데이터를 존중하면 이익을 얻고 고객을 유치할 수 있습니다. 기업들은 옳은 일을 하는 것이 윤리적일 뿐만 아니라 더 큰 성공을 거두는 데에도 도움이 된다는 것을 깨닫게 될 것입니다. 저는 이것이 기업을 구분하는 방식이라고 생각하며, 책임감 있는 기업은 우리가 안심하고 거래할 수 있는 기업입니다.
베트남은 문화적 가치를 적극적으로 보호해야 합니다.
베트남은 인공지능법 제정을 고려하는 몇 안 되는 국가 중 하나입니다. 이에 대해 어떻게 생각하십니까? 베트남과 같은 개발도상국이 AI 개발 과정에서 윤리 및 안전 측면에서 어떤 어려움을 겪을 것이라고 생각하십니까?
- 베트남이 인공지능에 관한 특화된 법률을 제정하는 선구적인 국가 중 하나라는 사실이 매우 기쁩니다. 각 국가는 고유한 가치와 문화를 가지고 있으며, 이러한 가치를 보호하기 위한 법률이 필요하기 때문에 이는 매우 중요합니다.
베트남의 가치관과 문화는 호주, 중국, 미국과 다릅니다. 중국이나 미국의 기술 기업들이 베트남 문화와 언어를 자동적으로 보호해 줄 것이라고 기대할 수는 없습니다. 베트남은 이러한 것들을 보호하기 위해 적극적으로 나서야 합니다.
저는 과거 많은 개발도상국들이 물리적 식민지화를 겪었다는 점을 잘 알고 있습니다. 우리가 조심하지 않으면 "디지털 식민지화"의 시대를 겪을 수도 있습니다. 여러분의 데이터는 착취당하고 여러분은 값싼 자원이 될 것입니다.
개발도상국이 자국의 이익을 통제하거나 보호하지 않고 데이터만 활용하는 방식으로 AI 산업을 발전시킨다면 이는 위험에 처하게 됩니다.
그러면 이런 상황을 어떻게 극복할 수 있을까?
- 간단합니다. 사람에게 투자하세요. 사람들의 역량을 강화하고, AI를 이해하도록 하세요. 기업가, AI 기업, 대학을 지원하세요. 적극적으로 나서세요. 다른 나라가 기술을 이전하거나 우리에게 지침을 주기를 기다리는 대신, 우리는 적극적으로 나서서 기술을 숙달해야 합니다.

토비 월시 교수가 VinFuture 과학기술주간에서 이야기를 나누고 있습니다(사진: 조직위원회).
둘째, 우리는 베트남의 민주주의에 영향을 미치지 않으면서 베트남 사용자에게 안전한 환경을 조성하기 위해 소셜 미디어 플랫폼을 강력히 옹호해야 합니다.
실제로 소셜 미디어 콘텐츠가 선거 결과에 영향을 미치고, 국가를 분열시키고, 심지어 테러를 조장하는 사례는 수없이 많습니다.
저는 40년 동안 인공지능 연구에 매진해 왔습니다. 처음 30년 동안은 AI를 더욱 강력하게 만드는 방법에 집중했습니다. 지난 10년 동안 저는 책임감 있는 AI 개발에 점점 더 관심을 갖고 목소리를 높여 왔습니다.
베트남에서 인공지능에 관한 법률 초안을 작성 중이므로 조언을 해 주실 수 있나요?
- 새로운 법이 필요하지 않은 경우가 많습니다. 이미 개인정보보호법과 경쟁법이 있습니다. 이러한 기존 법은 물리적 세계와 마찬가지로 디지털 공간에도 적용됩니다.
디지털 환경에서도 물리적 환경과 마찬가지로 이러한 법률을 엄격하게 시행하는 것이 중요합니다.
하지만 몇 가지 새로운 위험이 나타나고 있으며, 우리는 이를 인지하기 시작했습니다. 사람들은 AI와 관계를 맺고, AI를 치료사로 이용하기 시작하는데, 이는 때로는 사용자에게 해를 끼칠 수 있으므로 주의해야 합니다.
제조업체가 제품을 출시할 때 우리는 항상 제조업체에 책임을 묻습니다. 예를 들어, AI 회사가 인간에게 해를 끼치는 AI 제품을 출시한다면, 그들 역시 책임을 져야 합니다.
그러면 AI가 어린이에게 해로운 영향을 끼치는 것을 어떻게 예방하고, AI가 등장할 때마다 어린이에게 안전한 환경을 조성할 수 있을까요?
- 저는 우리가 소셜 미디어에서 많은 교훈을 얻지 못했다고 생각합니다. 많은 국가들이 이제 소셜 미디어가 큰 이점을 제공하지만, 특히 젊은 세대, 특히 소녀들의 정신 건강, 불안 수준, 그리고 신체 이미지에 미치는 영향과 같은 많은 단점도 있다는 것을 깨닫기 시작했습니다.
많은 국가들이 이미 이 문제를 해결하기 위한 조치를 시행하기 시작했습니다. 호주에서는 12월 10일부터 소셜 미디어 사용 연령 제한이 시행됩니다. AI에도 유사한 조치가 필요하다고 생각합니다.
우리는 긍정적인 영향을 미칠 수 있지만 해를 끼칠 수도 있는 도구를 만들고 있으며, 이러한 부정적인 영향으로부터 우리 아이들의 마음과 정신을 보호해야 합니다.
더불어, 각국이 소셜 네트워크를 관리하기 위한 엄격한 규정을 발표하여, AI를 사용할 때 모든 사람이 진정으로 안전한 환경을 조성하기를 바랍니다.
실제로 어린이뿐만 아니라 어른들도 AI 자체로 인한 위험에 직면하고 있습니다. 그렇다면 사람들은 어떻게 AI를 활용하여 위험을 감수하지 않고 삶을 개선할 수 있을까요?
- AI는 다양한 분야에 적용되어 우리 삶의 질을 향상시키는 데 기여하고 있습니다. 의학 분야에서는 AI가 신약 개발에 기여하고 있으며, 교육 분야에서도 AI는 많은 긍정적인 효과를 가져옵니다.
하지만 적절한 안전장치 없이 AI에 대한 접근을 허용하는 것은 너무 위험합니다. 미국에서는 AI 챗봇과 상호작용한 후 자녀를 자살로 이끈 기술 회사를 부모가 고소하는 사례가 있었습니다.
ChatGPT 사용자 중 정신 건강 문제를 경험하는 비율은 수억 명에 달하지만, 실제 사용자 수는 수십만 명에 달합니다.
데이터는 AI 개발에 매우 중요하지만, 관리 측면에서 데이터 관리가 너무 엄격하면 AI 개발을 저해할 수 있습니다. 데이터 관리를 느슨하게 하면 어떤 위험이 발생할 수 있다고 생각하십니까? 데이터 수집, 안전한 데이터 관리, 그리고 AI 개발 간의 균형을 어떻게 맞출 수 있을까요?
- 전적으로 동의합니다. 데이터는 AI 발전의 핵심입니다 . 데이터가 AI 발전을 주도하기 때문입니다. 데이터가 없다면 어떤 발전도 이룰 수 없습니다. 고품질 데이터는 우리가 하는 모든 일의 핵심입니다. 사실, 기업이 얻는 상업적 가치와 경쟁 우위는 데이터에서 비롯됩니다. 양질의 데이터가 있든 없든, 그것이 핵심입니다.
전 세계 작가들의 책, 제 책을 포함한 책들이 허락 없이, 보상 없이 사용되는 것을 보는 것은 참으로 분노스럽습니다. 이는 다른 사람들의 노동의 결실을 훔치는 행위입니다. 이런 상황이 계속된다면 작가들은 책을 쓸 의욕을 잃고, 우리는 우리가 소중히 여기는 문화적 가치를 잃게 될 것입니다.
우리는 지금보다 더 공평한 해결책을 찾아야 합니다.
지금 "실리콘 밸리"는 작가들의 콘텐츠와 창의성을 돈 없이 빼앗고 있습니다. 이는 지속 불가능합니다. 저는 지금의 상황을 냅스터와 2000년대 초창기 온라인 음악에 비유합니다. 당시 온라인 음악은 모두 "도난"당했지만, 음악가들이 창작 활동을 계속하려면 수입이 필요했기 때문에 영원히 지속될 수는 없었습니다.
마지막으로, Spotify나 Apple Music 같은 유료 스트리밍 시스템 이나 광고 기반 음악 서비스 가 있으며 , 수익의 일부는 아티스트에게 돌아갑니다. 책에도 같은 방식이 적용되어야 작가들이 데이터에서 가치를 얻을 수 있습니다. 그렇지 않으면 아무도 책을 쓸 의욕을 느끼지 못할 것이고, 새로운 책이 나오지 않으면 세상은 훨씬 더 어려워질 것입니다.

VinFuture 과학기술주간의 일환으로, "Toa V - 과학의 접점" 전시회도 Vincom Royal City Contemporary Art Center에서 개최됩니다(사진: 조직위원회).
베트남은 AI가 매우 발달되어 있습니다. 최근 베트남은 AI를 장려하기 위한 여러 정책을 시행하고 있지만, AI로 인한 사기라는 문제에도 직면해 있습니다. 그렇다면 교수님은 베트남이 이 상황을 어떻게 처리해야 한다고 말씀하시며, 오늘날 AI를 사용하는 사람들이 자신의 안전을 보장하고 데이터를 보호하기 위해 어떤 조언을 해주시겠습니까?
- 각 개인별로 가장 간단한 방법은 정보를 확인하는 것이라고 생각합니다. 예를 들어, 은행 등에서 전화나 이메일을 받으면 다시 한 번 확인해야 합니다. 해당 가입자 번호로 다시 전화를 걸거나 은행에 직접 연락하여 정보를 확인할 수 있습니다.
요즘 가짜 이메일, 가짜 전화번호, 심지어 가짜 줌 통화까지 넘쳐납니다. 이러한 사기는 간단하고 저렴하며 시간도 많이 걸리지 않습니다.
저희 가족은 자체적인 보안 장치도 가지고 있습니다. 바로 가족 구성원만 아는 "비밀 질문"인데, 예를 들어 애완 토끼의 이름 같은 것을요. 이를 통해 중요한 정보가 가족 내에서만 유출되지 않고 안전하게 보호됩니다.
베트남도 일반교육에 AI 교육을 포함시켰는데, 그 과정에서 주의해야 할 점은 무엇일까?
- AI는 교육 내용과 교육 방식을 변화시킵니다. AI는 비판적 사고, 의사소통 능력, 사회적 지능, 감성 지능과 같은 미래의 중요한 기술에 영향을 미치며, 이러한 기술은 필수적이 될 것입니다.
AI는 개인 튜터, 개인 학습 도우미 등의 역할을 하여 이러한 기술을 가르치는 데 도움을 줄 수 있으며, AI 애플리케이션을 통해 매우 효과적인 교육 도구를 제공할 수 있습니다.
교수님, 대화의 시간을 내주셔서 감사합니다!
출처: https://dantri.com.vn/cong-nghe/viet-nam-can-lam-gi-de-tranh-nguy-co-tro-thanh-nguon-luc-re-tien-20251203093314154.htm






댓글 (0)