Vietnam.vn - Nền tảng quảng bá Việt Nam

AI를 이용해 민감한 이미지를 결합하여 협박

악당들은 소셜 네트워크에 게시된 가상 사진을 이용해 인공지능(AI) 도구를 사용해 섹시하고 심지어 알몸 사진을 만들거나 민감한 영상에 사실적인 얼굴을 넣어 피해자를 모욕하고 협박할 수 있습니다.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

악당들은 AI를 이용해 민감한 사진과 영상을 결합해 타인을 비방하고 협박할 수 있다 - 사진: AI 그림

과거에는 한 사람의 얼굴을 다른 사람의 몸에 잘라서 붙이는 기술에 관해 이야기할 때, 사람들은 종종 포토샵이나 전문적인 사진 편집 소프트웨어를 사용했는데, 이는 노력이 많이 들고 육안으로도 쉽게 알아볼 수 있었습니다.

이제 AI 도구를 사용하면 사람들은 "몇 가지 메모"만 하면 아주 쉽게 알아낼 수 있지만, 육안으로는 감지하기 쉽지 않습니다.

협박을 위한 얼굴 바꾸기 섹스 영상

H. 씨(호치민시의 한 사업체 사장)는 업무 관계로 인해 소셜 네트워크에서 자주 소통합니다.

어느 날, 그는 한 어린 소녀와 친해졌는데, 그 소녀가 그의 직업에 대해 물었습니다. 한동안 서로의 안부를 묻고, 이야기를 나누고, 직업과 사생활에 대해 이야기를 나누면서 두 사람은 꽤 가까워졌습니다.

두 사람 사이에는 감정이 깃든 문자 메시지도 많았고, 사진을 주고받기도 했으며, 서로를 보기 위해 화상 통화도 했습니다.

어느 날, H 씨는 갑자기 자신이 그 여자의 남편이라고 주장하는 남자에게서 전화를 받았습니다. H 씨에게 "선제 공격"을 가한 후, 그 "남편"은 두 사람의 채팅 사진과 성관계 영상이 친척과 파트너에게 전송되는 것을 원하지 않으면 보상금을 보내라고 요구했습니다.

그러자 H씨는 "남편"으로부터 다른 여자와 성관계를 갖는 영상과 두 사람 간의 통화 영상, 그리고 친밀한 문자 메시지 등을 보게 되었다...

"저는 그 여자를 만난 적이 없으니 성관계 영상은 포토샵으로 조작한 게 틀림없어요." H 씨는 단언했다. 그러나 성관계 영상 속 여자의 얼굴과 화상 통화 속 여자의 얼굴이 똑같았고, 애정 어린 문자 메시지 사진까지 첨부되어 있어 H 씨는 자신의 명예를 지키기 위해 "남편"에게 여러 번 돈을 송금해야 했다.

투오이트레 의 수사를 통해 H 씨는 완벽한 시나리오에 따라 조직적으로 사기를 당했습니다. 이 사기에서 H 씨는 딥페이크에 두 번이나 속았습니다. 첫 번째는 영상 통화였고, 두 번째는 성관계 영상이었습니다.

특히, 성관계 영상에서 H 씨의 얼굴은 너무나 정교하게 이식되어 시청자들은 그것이 얼굴 이식 영상이라고 믿기 어려울 정도였습니다. 한 AI 전문가는 Tuoi Tre 에 악당들이 영상에 얼굴을 완벽하게 이식할 수 있는 새로운 AI 도구를 사용했다고 확인했습니다. 마치 실제 얼굴처럼 말이죠.

얼굴 바꾸기 AI 도구가 넘쳐난다

현재 원하는 얼굴을 가진 사람을 만들어내거나, 원하는 얼굴을 다른 사람의 신체에 합치는 등의 기능을 갖춘 AI 애플리케이션 도구가 많이 있습니다.

그중에는 사진 속 인물을 '벗겨' 일반 사진의 누드 사진으로 바꾸거나, 동영상 속 인물의 얼굴을 원하는 얼굴로 바꾸는 등 나쁜 목적을 가진 기능을 가진 도구도 있습니다...

이러한 AI 도구의 대부분은 체험판으로 사용할 수 있지만, 비용을 지불하면 매우 빠른 변환 속도와 함께 모든 기능을 사용할 수 있습니다.

예를 들어, 다른 사람의 얼굴에 얼굴을 합치는 기능을 사용하면 사용자는 해당 사진 두 장만 업로드하고 결과가 나올 때까지 몇 초만 기다리면 됩니다.

또는 일반 사진에서 누드 사진을 만드는 기능을 사용하면 AI 도구가 수십 초 만에 매우 빠르게 작업을 완료하여 보는 사람을 놀라게 할 수 있습니다.

심지어 섹스 비디오에서 얼굴을 바꾸는 기능도 AI 도구가 매우 빠르게 처리해, 몇 초 길이의 비디오라면 1분도 걸리지 않습니다.

VNetwork 사이버보안 회사의 연구개발팀장인 응우옌 킴 토 씨는 투오이 트레 와의 인터뷰에서 딥페이크라는 용어가 AI가 시청자에게 실제처럼 생각하게 만들기 위해 만든 가짜 비디오와 이미지를 지칭하는 데 사용된다고 분석했습니다.

딥페이크 기술은 신경망과 같은 딥 러닝 모델을 사용하여 사람의 얼굴과 음성 데이터를 분석하고 그 사람과 똑같이 생긴 가짜 콘텐츠를 만듭니다.

강력한 알고리즘 덕분에 악의적인 사람들은 피해자의 얼굴을 민감한 영상(예: '침대' 영상, 포르노)에 넣거나 이미지를 편집하여 가짜 누드 사진을 만들 수 있습니다.

"딥페이크 소프트웨어와 애플리케이션은 모바일 애플리케이션, 오픈 소스 코드 또는 무료 온라인 서비스를 통해서도 인터넷에서 매우 인기가 많습니다. 덕분에 누구나 가짜 비디오와 사진을 만드는 도구에 쉽게 접근할 수 있으므로 사람들은 경계해야 합니다."라고 토 씨는 말했습니다.

"성적 채팅"에 접근하지 마세요

많은 사기 수법은 온라인에서 친구를 사귀는 것으로 시작하여 피해자를 속여 "성적 채팅"을 하게 하거나 민감한 사진을 전송하는 방식으로 진행됩니다. 따라서 온라인에서 만난 사람에게 아무리 약속이나 협박을 하더라도 절대 개인적인 사진이나 동영상을 보내서는 안 됩니다.

공유된 모든 콘텐츠(비공개 메시지를 통한 콘텐츠 포함)는 녹화(스크린샷, 비디오)될 수 있으며, 이후 편집되어 사용자에게 불리하게 사용될 수 있다는 점을 항상 기억하세요.

영상 통화를 할 경우, 민감한 내용을 요구하는 낯선 사람을 조심하세요. 가짜 화면일 수도 있고, 녹화 중일 수도 있습니다.

사이버보안 전문가들은 사용자에게 단순히 온라인상의 접촉만으로는 누구도 믿지 말고, 민감한 정보를 공유하기 전에 상대방의 신원과 의도를 확인하라고 조언합니다.

게다가, 만약 "핫"한 사진을 공개하여 협박하겠다는 메시지나 전화를 받았다면, 사용자는 두려워하거나 서둘러 돈을 이체할 필요가 없습니다.

전문가들은 돈을 지불한다고 해서 악당들이 영상을 삭제할 것이라는 보장은 없다고 말한다. 그들은 계속해서 더 많은 돈을 요구하거나 어차피 온라인에 영상을 게시할 수도 있다고 한다.

범죄자의 요청에 따르기보다는, 사용자는 증거(메시지, 전화번호, 연락처 계정, 위협적인 내용 등)를 수집하고 즉시 가장 가까운 경찰 기관에 신고하거나 공안부 의 VNeID 애플리케이션을 통해 사건을 신고하여 시기적절한 지원을 받아야 합니다.

어떻게 식별하나요?

응우옌 킴 토 씨에 따르면, 실제 이미지와 비디오, 딥페이크를 구별하는 것이 점점 더 어려워지고 있지만, 여전히 식별 신호와 지원 도구는 있습니다.

딥페이크 콘텐츠에는 시각적, 청각적 이상이 나타나는 경우가 있으므로 사용자가 직접 관찰할 수 있습니다.

예를 들어, 합성 이미지는 합성된 얼굴과 신체 사이에 노이즈와 색상 차이가 있을 수 있습니다. 가짜 영상은 음성과 일치하지 않는 입술 움직임이나 뻣뻣하고 부자연스러운 표정을 보일 수 있습니다.

이전에는 일부 딥페이크 영상에서 캐릭터가 눈을 깜빡이지 않거나 얼굴의 조명과 그림자가 맥락과 맞지 않는 경우가 있었습니다. 이는 영상이 편집되었다는 신호였습니다.

기술은 발전하고 있지만(예를 들어, 새로운 딥페이크 영상에는 현실적인 눈 깜빡임 동작이 추가됨), 주의 깊은 시청자라면 여전히 비디오와 사진에서 비논리적인 세부 사항을 발견할 수 있습니다.

연구자들은 이제 딥페이크 흔적을 자동으로 감지하는 많은 알고리즘을 개발하고 있습니다.

AI가 생성한 콘텐츠는 종종 각 픽셀에 기계가 인식할 수 있는 독특한 "디지털 지문"을 남깁니다.

예를 들어, 인텔은 비디오를 분석하고 비디오 속 캐릭터가 실제 사람인지 아니면 AI가 생성한 것인지 판별할 수 있는 최초의 실시간 딥페이크 감지기를 선보였습니다.

또한, 일부 웹사이트에서는 사용자가 비디오와 사진을 업로드하여 이미지의 진위 여부를 확인할 수 있도록 허용합니다(예: Deepware, Sensity AI 등). 이러한 시스템은 새로운 딥페이크 기법에 발맞춰 지속적으로 업데이트됩니다.

특히, 많은 딥페이크 영상은 소셜 네트워크의 가짜 계정이나 봇을 통해 유포되기 때문에, 민감한 영상이나 이미지를 접했을 때 사용자는 게시물의 출처와 맥락을 직접 확인할 수 있습니다.

특정 인물에 대한 민감한 콘텐츠가 비공식적인 출처나 익명 계정에서 나온 경우, 그 콘텐츠의 진위 여부를 의심해 보세요. 콘텐츠에 등장하는 사람에게 직접 연락하여 실제로 그런 콘텐츠를 제작했는지 확인하는 것이 좋습니다.

또한, 사진과 비디오 제작 순간부터 인증 정보(디지털 서명)를 내장하는 프로젝트들이 진행되고 있으며, 이를 통해 원본 콘텐츠와 편집된 콘텐츠를 구분하는 데 도움이 됩니다. 앞으로 사용자들은 이러한 인증 표시를 사용하여 신뢰할 수 있는 콘텐츠를 식별할 수 있을 것입니다."라고 토 씨는 말했습니다.

자신을 보호하기 위한 5가지 팁

1. 민감하고 개인적인 사진과 비디오(특히 누드 사진, 가족 사진, 어린이 사진)의 공유를 제한하세요.

2. 소셜 미디어 계정을 비공개로 설정합니다(신뢰하는 사람과만 공유).

3. 공개 소셜 네트워크에 너무 많은 개인 정보(성함, 전화번호, 주소 등)를 제공하지 마세요.

4. 해킹을 방지하려면 계정에 강력한 비밀번호를 설정하고 2단계 인증을 활성화하세요.

5. Google에서 이름과 이미지를 정기적으로 검색하세요(또는 Google Image, TinEye와 같은 역방향 이미지 검색 도구를 사용하세요). 허가 없이 게시된 사진이 있는지 확인하고 즉시 삭제를 요청하세요.

더 읽어보세요 주제로 돌아가기

출처: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


댓글 (0)

No data
No data

같은 카테고리

하노이에서 가장 비싼 연꽃차를 만드는 과정을 알아보세요
호치민시에서 30톤이 넘는 도자기 조각으로 만들어진 독특한 사원을 감상하세요.
옌바이 산 정상에 있는 마을: 떠다니는 구름, 동화나라처럼 아름답다
탄호아 계곡에 숨겨진 마을, 관광객을 끌어들여 체험하게 하다

같은 저자

유산

수치

사업

No videos available

소식

정치 체제

현지의

제품