정보보안부는 최근 첨단 비디오 및 이미지 사기가 계속해서 발생하고 있다며 경고를 발표했습니다.
이에 따라 사이버 범죄자들이 사람들의 공개 이미지와 영상을 이용해 편집, 편집하고, 가짜 영상으로 협박하는 상황이 발생하고 있으며, 당국은 많은 사람들에게 이를 널리 경고했습니다.
범죄자들은 사람의 소리와 이미지를 높은 정확도로 복제할 수 있는 딥페이크 기술을 사용하여 온라인 회의에서 리더를 사칭하거나, 영상과 통화를 만들어 금융 사기를 저지를 수 있습니다.
더욱이 이러한 사기는 긴박감, 두려움, 권력 등 심리적 요소를 악용하여 피해자가 진위 여부를 주의 깊게 확인하지 않고 성급하게 행동하게 만드는 경우가 많습니다.
딥페이크는 금융 투자 사기에만 국한되지 않습니다. 또 다른 예로 로맨스 사기가 있는데, 딥페이크는 화상 통화를 통해 피해자와 소통하는 가상의 인물을 만들어내는 데 사용됩니다. 피해자의 신뢰를 얻은 후, 사기꾼은 긴급 상황 해결, 여행 경비 또는 대출을 위해 송금을 요청합니다.
위와 같은 상황을 고려하여 정보보안부는 소셜 네트워크에서 유명인의 투자 조언에 주의하고, 알 수 없는 메시지, 이메일 또는 전화에 주의하며, 영상 속의 부자연스러운 표정을 주의 깊게 관찰할 것을 권고합니다.
또한 사람들은 나쁜 놈들이 이미지, 비디오 또는 음성과 같은 정보를 도용하는 것을 피하기 위해 소셜 네트워크에 개인 정보와 관련된 콘텐츠를 게시하는 것을 제한해야 합니다. 동시에 개인 정보를 보호하기 위해 계정을 비공개 모드로 설정해야 합니다.
베트남 사이버 사기 방지 프로젝트(Chongluadao.vn)의 공동 설립자이자 사이버 보안 전문가인 응오 민 히에우는 다이 도안 켓(Dai Doan Ket) 신문 기자들과의 인터뷰에서 사기 목적으로 영상 통화를 조작하는 데 AI에서 딥페이크 기술을 사용하는 것은 여전히 어렵다고 말했습니다. 피해자들은 이 기술을 악용하여 "피해자"의 신뢰도를 높이고 있습니다.
구체적으로, 피의자들은 이전에 "훔친" 이미지와 비디오를 이용해 피해자에게 적극적으로 화상 통화를 걸고, 기술을 조작하고, 소리를 왜곡하거나 가짜 이미지 문제를 만들어 피해자의 신뢰를 얻습니다.
일반적으로 이러한 전화는 매우 짧아서 몇 초 정도만 지속되며, 사기꾼은 네트워크가 불안정하다거나 거리에 있다는 등의 핑계를 대며 피해자에게 사기꾼의 요구를 들어달라고 요구합니다.
전문가들은 가까운 미래에 사이버 사기에 AI를 활용하는 사례가 크게 증가할 것으로 예상합니다. 따라서 사람들은 특히 이상한 메시지, 화상 통화, 링크를 수신할 때 더욱 적극적으로 경계해야 합니다.
이 전문가의 분석에 따르면, 실시간 통화 중 현재의 딥페이크 인공지능(AI) 알고리즘은 통화자가 좌회전, 우회전 또는 일어서기를 하는 경우 이를 처리할 수 없게 됩니다.
이러한 전화를 받을 때 사람들이 주의해야 할 특히 중요한 약점은 바로 치아입니다. 따라서 현재 AI 알고리즘은 사칭하는 사람의 치아를 정확하게 재현할 수 없습니다.
딥페이크를 사용하는 경우, 입을 벌리는 사람의 이미지에 이가 없을 수도 있고, 어떤 사람은 턱이 3개 또는 4개일 수도 있습니다. 따라서 치아의 특징은 딥페이크를 사용한 가짜 영상에서 가장 잘 드러나는 요소입니다.
사기의 함정에 빠지지 않으려면 "속도를 늦추고" 요청을 즉시 따르지 않는 것이 필수입니다. 소셜 네트워크를 통해 메시지나 전화를 받으면 가족에게 직접 전화하여 최소 30초 이상 연락하거나 직접 만나서 누가 연락하는지 확인해야 합니다.
소셜 네트워크에서 친척을 사칭하여 사기를 치거나 재산을 횡령했다는 의심이 드는 경우, 즉시 가까운 경찰서에 신고하여 적절한 지원과 처리를 받아야 합니다.
[광고_2]
출처: https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html
댓글 (0)