딥페이크 영상 제작을 위한 인공 도구에 대한 접근성이 매우 제한적이었던 이전 시기와 달리, Grok, ChatGPT, Meta AI, Gemeni, DeepSeek 등 많은 AI 도구가 널리 출시되어 이미지 생성을 포함한 기본 기능을 무료로 사용할 수 있게 되었습니다. 사용자는 전문적인 처리 기술을 이해하지 않고도 원하는 이미지를 만들거나 자르거나 편집할 수 있습니다. 이로 인해 엔터테인먼트부터 인터넷 위협까지 다양한 목적으로 AI를 활용한 얼굴 합성이 증가했습니다.
YN 씨(호찌민시 1군)는 한때 AI 기반 이미지 조작의 피해자였으며, 인공지능 도구로 생성된 "민감한" 데이터를 회수하려면 거액의 돈을 지불해야 한다는 협박을 받았다고 밝혔습니다. 구체적으로, 범죄자들이 그녀의 개인 이미지를 수집하고 그들의 얼굴을 악성 콘텐츠로 편집하여 민감한 채팅을 만든 후, YN 씨를 찾아와 협박했습니다.
범죄자들은 AI를 이용해 피해자를 편집하고, 자르고, 협박합니다.
피해자는 "그들은 가짜 채팅, 이미지, 동영상의 스크린샷을 보여주더니 삭제 대가로 1억 동(VND)을 요구했습니다. 합성된 이미지는 진짜인지 가짜인지 구분하기 어려울 정도였습니다."라고 말하며, 관련 행위를 당국에 신고했다고 덧붙였습니다.
YN 씨의 사례는 최근 AI 및 이미지 편집 도구를 악의적인 목적으로 악용한 여러 사건 중 하나에 불과합니다. 현재 베트남의 소셜 미디어 사용자들은 정보 보안 분야 전문가들의 많은 경고에도 불구하고 개인 사진, 친구, 친척의 사진을 온라인과 공개적으로 공유하는 데 여전히 매우 "부주의"합니다.
최근 공안부는 인터넷에 공개된 사진과 영상을 악용하여 편집, 편집, 합성하여 민감한 콘텐츠를 만들어 위협 및 협박하는 범죄자들의 출현에 대해 휴대전화 사용자들에게 경고했습니다. "위와 같은 내용이 담긴 메시지나 전화를 받을 경우 경계하고, 협박을 받을 경우 돈을 송금하지 않도록 당부드립니다. 사기 또는 재산 갈취 징후를 발견하면 즉시 가까운 경찰서에 신고하고 VNeID 앱을 통해 신고해야 합니다."라고 공고문에 명시되어 있습니다.
협박 외에도 범죄자들은 피해자의 공개된 개인 사진과 영상을 이용하여 가짜 콘텐츠를 제작하여 직장 내 명예를 훼손하고, 개인적인 복수를 감행하며, 정신과 명예를 훼손할 수 있습니다. 특히 이러한 가짜 문서는 점점 더 정교해지고 있으며, 일반인과 인공지능 분야에 관심 있는 사람 모두가 이를 구분하기 어려워지고 있습니다.
판매 지원을 위한 AI 챗봇을 개발하는 폴란드 기업 티디오(Tidio)가 작년 말 실시한 연구에 따르면, 대다수 인터넷 사용자가 AI가 생성한 이미지를 구분하는 데 어려움을 겪고 있는 것으로 나타났습니다. 티디오는 응답자의 87%가 AI 이미지와 실제 사람 사진을 혼동했다고 밝혔습니다. 또한, 응답자의 62%는 AI와 머신러닝에 관심을 보였지만, 이 중 절반은 AI가 생성한 이미지를 정확하게 식별하지 못했습니다.
현재 사이버 범죄에 AI를 활용하는 것에 대한 구체적인 규정은 없지만, 타인의 이미지를 사용하여 위협, 협박 또는 허위 정보를 퍼뜨리는 행위는 타인을 모욕하는 범죄, 재물 갈취 또는 음란 문화 산물 유포 범죄와 관련된 조항에 따라 여전히 처리될 수 있습니다.
이러한 상황에 직면하여 전문가들은 사용자들이 소셜 네트워크에서 개인 이미지를 공유할 때 주의해야 하며, 보안 도구를 사용하여 개인 정보를 관리해야 한다고 권고합니다.
[광고_2]
출처: https://thanhnien.vn/canh-giac-ke-xau-loi-dung-ai-ghep-mat-nan-nhan-de-de-doa-tong-tien-185241107153341681.htm
댓글 (0)