Vietnam.vn - Nền tảng quảng bá Việt Nam

딥페이크 음성 사기가 점점 더 정교해지고 있는데, 어떻게 해야 할까?

딥페이크 음성 기술을 이용하면 사람들이 실제 사람과 똑같은 목소리를 흉내낼 수 있어 많은 사람이 친숙한 목소리를 믿는 함정에 빠지게 됩니다.

Báo Tuổi TrẻBáo Tuổi Trẻ09/07/2025

Deepfake Voice - Ảnh 1.

딥페이크 음성으로 음성 사칭하는 사기 수법

급속도로 발전하는 인공지능 시대에, 한때 확실한 증거로 여겨졌던 음성은 이제 악당들의 손에 들어가면 위험한 도구가 되었습니다. 딥페이크 음성 기술은 실제 사람과 똑같은 가짜 음성을 만들어내, 정교한 가짜 통화를 통해 재산을 사취하고 탈취하는 데 사용됩니다.

딥페이크 목소리가 무서운 이유는?

딥페이크 음성은 인공지능(AI)과 머신러닝을 적용하여 실제 사람의 목소리와 동일한 가짜 음성을 만드는 기술입니다.

Tacotron, WaveNet, ElevenLabs와 같은 최신 모델이나 Respeecher와 같은 음성 복제 플랫폼의 지원을 받으면 사기꾼은 3~10초 분량의 음성 샘플만으로 95% 신뢰도 높은 딥페이크를 만들 수 있습니다.

딥페이크 음성은 발음, 억양, 심지어 각 사람의 독특한 말투 습관까지 거의 완벽하게 사람의 목소리를 흉내낼 수 있기 때문에 특히 위험합니다.

이로 인해 피해자는 진짜와 가짜를 구별하기가 매우 어렵습니다. 특히 목소리가 친척, 친구 또는 상사의 것일 경우 더욱 그렇습니다.

음성 마이닝 또한 쉽습니다. 오늘날 대부분의 사람들이 TikTok, 소셜 미디어 라이브 스트리밍, 팟캐스트, 온라인 회의 등의 플랫폼을 통해 자신의 음성을 노출하고 있기 때문입니다. 더욱 우려스러운 점은 딥페이크 음성은 이미지나 동영상 처럼 시각적인 흔적을 남기지 않아 수사를 어렵게 만들고 피해자는 금전적 피해를 입을 위험이 있다는 것입니다.

Lừa đảo bằng deepfake voice ngày càng tinh vi, phải làm sao? - Ảnh 2.

단 몇 초의 음성 샘플만으로도 딥페이크를 만들 수 있다

딥페이크 음성 사기는 점점 더 정교해지고 있으며, 종종 익숙한 시나리오를 이용합니다. 즉, 비상 상황에 있는 지인을 사칭하여 피해자에게 공황 상태를 조성하고 즉시 돈을 이체하도록 압력을 가하는 것입니다.

베트남에서는 어머니가 "아들"에게서 사고를 당해서 급히 돈이 필요하다는 전화를 받은 사건이 있었습니다. 영국에서는 한 회사 임원이 "사장"의 전화 송금 요청을 듣고 24만 달러 이상을 사기당했습니다. 한 관리직 직원도 "전략적 파트너"에게 돈을 지불해 달라고 요청하는 "사장"의 전화를 받고 사기를 당했습니다.

이런 상황에서 공통적으로 나타나는 점은 가짜 목소리가 친척이나 상관의 목소리처럼 똑같이 재현되어 피해자가 그것을 절대적으로 신뢰하게 되고 확인할 시간도 없게 된다는 것입니다.

항상 확인하고, 즉시 믿지 마세요

딥페이크 음성 사기가 증가함에 따라, 사랑하는 사람의 목소리와 똑같다고 하더라도 음성만으로 전화로 돈을 이체하지 않는 것이 좋습니다. 대신, 거래를 하기 전에 이전 번호로 다시 전화를 걸거나 여러 채널을 통해 정보를 확인하세요.

많은 전문가는 특이한 상황에 대비해 집이나 회사 내부에 "내부 비밀번호"를 설정할 것을 권장합니다.

또한, 특히 긴 콘텐츠의 경우, 목소리가 또렷한 영상의 소셜 네트워크 게시를 제한해야 합니다. 특히, 노약자나 기술에 대한 노출이 적은 계층 등 취약 계층은 첨단 기술 사기의 주요 타깃이 되므로, 적극적으로 경고하고 안내해야 합니다.

Deepfake Voice - Ảnh 3.

친척, 친구, 동료의 목소리도 모두 가짜로 만들 수 있습니다.

많은 국가에서 당국은 자체적인 법적 틀을 마련하여 딥페이크 기술에 대한 통제를 강화하기 시작했습니다.

미국에서는 여러 주에서 선거 운동이나 허위 정보 유포에 딥페이크를 사용하는 것을 금지했습니다. 유럽 연합(EU)은 AI법을 통과시켜, 관련 기관들이 투명성을 확보하고 인공지능이 콘텐츠를 생성할 경우 명확하게 경고하도록 요구했습니다.

한편, 베트남에서는 딥페이크 음성에 대한 구체적인 규정은 없지만, 관련 행위는 현행법에 따라 사기, 사생활 침해, 신원 사기 등의 범죄로 처리될 수 있습니다.

그러나 현실은 기술이 법의 감시 능력을 훨씬 뛰어넘는 속도로 발전하고 있어 나쁜 행위자가 악용할 수 있는 허점이 많이 남아 있다는 것입니다.

목소리가 더 이상 증거가 아닐 때

음성은 예전에는 친밀하고 신뢰할 수 있는 것이었지만, 딥페이크 음성으로 인해 더 이상 신뢰할 수 있는 증거가 될 수 없습니다. AI 시대에는 모든 사람이 디지털 보안에 대한 지식을 갖추고, 적극적으로 검증하며, 통화가 함정이 될 수 있으므로 항상 경계해야 합니다.

판하이당

출처: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm


댓글 (0)

No data
No data
SU-30MK2 전투기 5대로 구성된 강력한 편대가 A80 행사를 준비하고 있습니다.
하노이의 하늘을 지키기 위해 전투 임무에 투입된 S-300PMU1 미사일
연꽃이 피는 계절에는 닌빈의 웅장한 산과 강으로 관광객을 끌어들입니다.
Cu Lao Mai Nha: 야생, 위엄, 평화가 어우러진 곳
폭풍 위파가 상륙하기 전 하노이는 이상하다
닌빈의 새 정원에서 야생 세계에 빠져보세요
물이 쏟아지는 계절의 푸 루옹 계단식 논은 숨 막힐 듯 아름답습니다.
Gia Lai를 통과하는 남북 고속도로에서 아스팔트 카펫이 '질주'합니다.
색조의 조각들 - 색조의 조각들
푸토의 '거꾸로 된 그릇' 차밭의 마법 같은 풍경

유산

수치

사업

No videos available

소식

정치 체제

현지의

제품