제니퍼 데스테파노는 자신의 큰딸 브리아나(15세)와 똑같은 목소리로 도움을 요청하는 목소리를 듣고 깜짝 놀랐습니다. 조사해보니, 이 모든 것이 AI의 도움을 받은 사기였습니다.
1월 20일 오후, 제니퍼 드스테파노의 전화가 울렸습니다. 딸 오브리가 연습하고 있던 댄스 스튜디오 앞에서 차에서 내리려던 참이었습니다. 발신자는 알려지지 않았고, 드스테파노는 전화를 받지 않으려고 했습니다.
하지만 그녀의 큰딸 브리아나(15세)는 스키 경주를 위해 훈련 중이었습니다. 데스테파노는 혹시 긴급 전화가 아닐까 걱정했습니다.
"여보세요?" 그녀는 스피커폰으로 대답하며 차를 잠그고 핸드백과 노트북 가방을 챙겨 헬스장으로 향했다. 갑자기 데스테파노는 비명과 흐느낌 소리를 들었다.
제니퍼 데스테파노와 그녀의 두 딸. 사진: NVCC. |
"엄마, 저 큰일 났어요!" 한 여자아이의 목소리가 울려 퍼졌다. "무슨 짓을 한 거예요? 무슨 일이에요?" 엄마는 곧바로 수화기 너머의 상대방에게 물었다.
공황의 순간
데스테파노는 CNN과의 인터뷰에서 그 목소리가 브리아나의 목소리와 똑같았다고 말했습니다. 억양부터 모든 게 똑같았습니다. "스키를 타다 보면 산에서 미끄러진 줄 알았어요. 그래서 당황하기 시작했죠."라고 데스테파노는 말했습니다.
비명 소리가 계속되었고, 낮은 남자의 목소리가 명령조로 들려오기 시작했다. "잘 들어. 네 따님은 내 손아귀에 있어. 경찰이나 누구든 부르면, 내가 딸에게 마약을 잔뜩 주사할 거야. 멕시코로 데려갈 테고, 그러면 다시는 네 따님을 볼 수 없을 거야."
데스테파노는 순식간에 마비가 되었습니다. 그러고 나서 그녀는 몸을 떨며 도움을 요청하며 비명을 지르며 체육관으로 달려갔습니다. 마치 갑자기 물에 빠져 죽는 것 같은 느낌이었습니다.
데스테파노는 브리아나와 똑같이 들리는 목소리가 전화로 도움을 요청하는 끔찍한 순간을 경험했습니다. 사진: 제니퍼 데스테파노 |
일련의 혼란스러운 사건들이 이어졌습니다. 납치범들은 재빨리 100만 달러의 몸값을 요구했고, 데스테파노는 경찰에 신고하기로 했습니다. 브리아나에게 여러 차례 연락을 시도한 끝에, "납치"의 실체가 드러났습니다.
알고 보니, 모두 사기였습니다. 당황한 브리아나는 엄마에게 전화해서 무슨 소란인지 전혀 모르겠다고 했습니다. 하지만 엄마는 아무 일도 없었죠.
하지만 데스테파노에게는 그 이상한 목소리로 통화한 그 무시무시한 4분짜리 통화는 결코 잊지 못할 것입니다.
데스테파노는 딥페이크 기술을 이용한 전화 가상 납치 사기의 피해자라고 생각합니다. 납치범들은 이 AI 기술을 이용하여 피해자의 목소리와 비슷하게 변조된 음성으로 피해자 가족에게 협박을 가하고 몸값을 요구합니다.
AI의 어두운 면
연방수사국(FBI) 대변인인 시오반 존슨에 따르면, 미국 가정은 평균적으로 사기 전화 한 통으로 약 11,000달러의 손실을 입습니다.
평균적으로 미국의 가정은 사기 전화 한 건당 약 11,000달러의 손실을 입습니다. 사진: 매튜 플레밍. |
미국 연방거래위원회(FTC)의 2022년 자료에 따르면 미국인들은 사기 전화로 인해 총 26억 달러 의 피해를 입었습니다.
스코츠데일 경찰이 CNN에 제공한 데스테파노의 통화 녹음 파일에서 댄스 스튜디오에 있던 한 어머니가 교환원에게 무슨 일이 일어나고 있는지 설명하려고 애쓰는 모습이 담겨 있습니다.
"어머니가 방금 들어왔는데 누군가에게서 전화를 받았어요. 딸아이였는데, 납치범이 백만 달러를 요구하더군요. 딸과 이야기하는 걸 허락하지 않았어요."라고 신고자는 말했습니다.
배경에서 데스테파노가 "딸과 통화하고 싶어요."라고 소리치는 소리가 들렸다. 교환원은 즉시 그 전화가 사기 전화라고 판단했다.
실제로 스푸핑 전화는 미국 전역에서 흔히 발생합니다. 때로는 노인들에게 연락하여 손주가 사고를 당해서 수술비가 필요하다고 주장하기도 합니다.
이 방법의 공통적인 특징은 가짜 납치범들이 군중의 비명 소리를 녹음한 것을 자주 사용한다는 것입니다.
그러나 미국 연방 관리들은 이런 사기가 점점 더 정교해지고 있으며, 딥페이크 기술을 이용해 피해자의 목소리를 흉내내어 지인의 신뢰를 얻은 후 돈을 사기로 빼앗는다고 경고했습니다.
피해자의 목소리를 흉내 내는 딥페이크 기술을 통해 지인의 신뢰를 얻은 후 금품을 갈취하는 공갈 사기가 점점 더 정교해지고 있습니다. 사진: 프로토콜 |
저렴하고 접근하기 쉬운 AI 프로그램이 개발되면서 사기꾼들은 자유롭게 목소리를 복제하고 원본과 똑같은 대화를 만들어낼 수 있게 되었습니다.
"이 위협은 단순한 가정이 아닙니다. 사기꾼들이 이러한 도구를 무기화하고 있습니다. 1분도 채 안 되는 짧은 음성으로도 비교적 정확한 음성 복제본을 만들 수 있습니다. 어떤 사람들에게는 몇 초면 충분합니다."라고 캘리포니아 대학교 버클리 캠퍼스 컴퓨터 과학과 교수인 하니 파리드는 말했습니다.
AI 소프트웨어의 도움으로 한 달에 5달러 만 투자하면 음성 사칭을 할 수 있으며 누구나 쉽게 이용할 수 있다고 파리드는 말했다.
FTC는 또한 3월에 사기꾼들이 피해자의 소셜 미디어 영상 에서 오디오 파일을 가져갈 수 있다는 경고를 발표했습니다.
인공지능을 이용하여 영상에 얼굴을 삽입하거나 가짜 음성을 삽입하는 딥페이크(deepfake)는 점점 더 보편화되고 위험해지고 있습니다. 이는 인터넷에서 실제로 발생할 수 있는 위험입니다.
민감한 영상뿐만 아니라, 딥페이크는 정치적 목적으로 사용될 경우 심각한 피해를 초래할 수 있습니다. 2018년에 화제가 된 버락 오바마 전 미국 대통령의 얼굴이 변형된 영상은 주요 정치인들 또한 피해자가 될 수 있음을 보여주었습니다.
2019년, 낸시 펠로시 미국 하원의장이 피해자가 되었습니다. 편집된 영상에는 펠로시가 만취 상태에서 연설하는 모습이 담겨 있었고, 그녀의 말투는 분명하지 않았습니다.
딥페이크는 포르노 영상을 합성하는 데 사용될 뿐만 아니라, 2020년 말 미국 대선과 같은 중요한 순간을 앞두고 가짜 뉴스에 대한 우려를 불러일으키기도 합니다. 사진: Cnet. |
2019년 말, 미국 캘리포니아주는 딥페이크 영상 제작 및 공유를 불법화하는 법을 통과시켰습니다. 이 법은 선거일로부터 60일 이내에 정치인의 사진, 영상 또는 음성이 포함된 편집된 영상은 불법이라고 명시하고 있습니다.
2019년 유엔(UN) 연구원인 조셉 불록과 미겔 루엔고-오로즈는 위키피디아 텍스트와 총회 연설 7,000건 이상을 학습한 AI 모델이 세계 지도자들의 연설을 쉽게 위조할 수 있다고 밝혔습니다.
연구팀은 AI에 몇 개의 단어만 입력해도 일관적이고 "고품질"의 텍스트를 생성할 수 있다고 밝혔습니다.
예를 들어, 연구자들이 "사무총장이 모가디슈에서 발생한 치명적인 테러 공격을 강력히 비난한다"라는 제목을 제시했을 때, AI는 유엔의 결정을 지지하는 연설을 생성할 수 있었습니다.
[광고_2]
소스 링크
댓글 (0)