TechRadar 에 따르면, AI(인공지능) 기술의 발전은 많은 편리함을 가져다주지만, 악의적인 목적으로 악용될 가능성도 있습니다. 전문가들은 실제 사람의 목소리를 놀라울 정도로 흉내 낼 수 있는 AI 음성을 이용한 전화 사기가 증가하고 있다고 경고합니다.
AI의 등장은 정교한 사기 위험을 수반합니다.
사진: TECHRADAR 스크린샷
AI 음성 사기가 증가하고 있습니다
악당들은 소셜 미디어에서 몇 초 분량의 음성만 추출하여 피해자의 친척, 친구, 심지어 유명인의 음성까지 AI로 복제할 수 있습니다. 이들은 이 기술을 사용하여 자동 전화를 걸고, 지인을 사칭하여 사기를 치고 재산을 훔칩니다.
흔한 수법은 어려움에 처한 가족 구성원을 사칭하거나, 긴급 자금이 필요한 경우, 또는 은행 직원이나 정부 기관을 사칭하여 개인 정보나 계좌 정보를 요구하는 것입니다. 전문가들은 사용자들에게 비정상적인 전화, 자금 이체 요청, 또는 민감한 정보 제공에 대해 각별히 주의할 것을 권고합니다.
자신을 보호하려면 사용자는 다음을 수행해야 합니다.
- 사랑하는 사람과 비밀 '비밀번호'를 설정하세요: 필요할 때 신원을 확인하는 데 사용할 비밀 문구를 사랑하는 사람이나 친구와 약속하세요.
- 테스트 질문을 하세요. 통화자에게 두 분만 아는 정보를 확인해 달라고 요청하세요.
- 목소리를 주의 깊게 들어보세요. 음조나 부자연스러운 감정 등 비정상적인 부분이 있는지 살펴보세요.
- 통화 확인: 전화를 끊고 해당 사람의 휴대전화 번호로 다시 전화를 걸어보세요.
- 비정상적인 요청, 특히 긴급한 자금 이체 요청에는 주의하세요.
- 은행의 의사소통 과정을 배우고 은행이 고객과 어떻게 소통하는지 이해하세요.
이번 사건은 AI 기술이 악의적인 목적으로 악용될 경우 발생할 수 있는 잠재적 위험에 대한 경각심을 다시 한번 일깨워줍니다. 사용자들은 이러한 새롭고 정교한 사기 수법으로부터 자신을 보호하기 위한 인식을 제고하고 관련 지식을 갖춰야 합니다.
[광고_2]
출처: https://thanhnien.vn/lua-dao-bang-giong-noi-ai-tang-manh-va-cach-phong-chong-185241125092848927.htm
댓글 (0)