BGR 에 따르면, 2024년은 인공지능이 진정한 컴퓨팅의 미래인지, 아니면 일시적인 유행일 뿐인지 전 세계 가 깨닫는 중요한 시점이 될 것입니다. AI의 실제 응용 분야는 점점 더 다양해지고 있지만, 앞으로 몇 달 동안 수많은 사기 사건을 통해 이 기술의 어두운 면이 드러날 것입니다.
Scams.info의 사기 방지 전문가들은 2024년에 모두가 조심해야 할 3가지 AI 사기 수법 목록을 공개했습니다. 일반적으로 너무 화려한 사기는 조심해야 하지만, 다음과 같은 사기 수법은 특별한 주의가 필요합니다.
AI를 이용한 투자 사기
구글, 마이크로소프트, 오픈AI 같은 대기업들은 AI에 수백만 달러를 쏟아부었고 올해도 계속해서 대규모 투자를 이어갈 것입니다. 사기꾼들은 이러한 사실을 악용하여 수상한 투자 기회에 투자하도록 유도할 것입니다. 소셜 미디어에서 누군가 AI가 투자 수익을 크게 늘려줄 것이라고 설득하려 한다면, 지갑을 열기 전에 다시 한번 생각해 보세요.
위험이 적고 '좋은' 투자는 결코 존재하지 않습니다.
Scams.info의 니콜라스 크라우치는 "위험은 낮지만 높은 수익을 약속하는 투자는 주의하고, 투자하기 전에 충분히 조사해야 합니다."라고 경고합니다. 신규 투자자는 추천 제안에도 주의해야 합니다. 추천 제안은 종종 최고 수익자에게만 이익이 돌아가고 다른 참여자는 거의 혜택을 보지 못하는 피라미드식 사기입니다.
친척 사칭
친구나 친척을 사칭하여 돈을 빌리는 수법은 새로운 것이 아닙니다. 사기꾼의 목소리를 흉내 내는 것이 그다지 효과적이지 않기 때문입니다. 하지만 AI가 등장하면 이러한 사기 수법은 훨씬 더 위협적으로 변할 것입니다. 친척의 목소리가 담긴 유튜브 영상 이나 페이스북 게시물만으로도 사기꾼은 AI를 사용하여 완벽하게 따라 할 수 있습니다. 전화 통화로 그 차이를 구별할 수 있을까요?
AI는 사랑하는 사람의 목소리를 쉽게 모방할 수 있습니다.
워싱턴 포스트 스크린샷
크라우치는 "사기꾼들이 자신의 목소리와 가족 정보를 훔치는 것을 막기 위해 사람들이 소셜 미디어 계정을 보호하는 것이 중요하다"고 강조했습니다.
음성을 이용해 보안 시스템을 우회하다
일부 은행은 전화로 업무를 처리할 때 음성 인식을 사용하여 사용자를 인증합니다. 앞서 언급한 이유로 이 방법은 예전보다 갑자기 보안성이 떨어졌습니다. 인터넷에 자신의 음성이 담긴 비디오나 클립을 게시하면 악의적인 사용자가 해당 콘텐츠를 사용하여 음성을 복제할 수 있습니다. 크라우치가 지적했듯이, 은행은 여전히 고객의 신원을 확인할 수 있는 다른 데이터를 보유하고 있지만, 이러한 전략은 은행 계좌를 훔치는 데 한 걸음 더 가까워지게 합니다.
음성 보안 시스템은 더 이상 AI의 힘으로부터 안전하지 않습니다.
AI는 우리의 삶과 기기와의 상호작용 방식을 근본적으로 바꿀 잠재력을 가지고 있습니다. 또한 해커와 사기꾼들이 사용자를 공격하는 데 사용하는 최신 도구이기도 합니다. 따라서 AI 관련 활동에 참여하기 전에 항상 경계하고 충분한 조사를 해야 합니다.
[광고_2]
소스 링크
댓글 (0)