Vietnam.vn - Nền tảng quảng bá Việt Nam

사이버 범죄자들은 ​​AI에서 더 많은 "트릭"을 얻습니다.

Người Lao ĐộngNgười Lao Động02/06/2024

[광고_1]

2024년 5월, 세계적 으로 유명한 기술 대기업들이 인공 지능(AI)의 새로운 버전을 출시했습니다. 여기에는 GPT-4o를 탑재한 OpenAI, Gemini 1.5 Pro를 탑재한 Google 등이 포함되었으며, 사용자 경험을 최적화하기 위해 많은 "매우 스마트한" 기능이 추가되었습니다. 그러나 이 기술이 사이버 범죄자들에 의해 다양한 온라인 사기에 사용되고 있다는 것은 부인할 수 없습니다.

위험 증가

최근 컨퍼런스에서 정보통신부 차관 Pham Duc Long은 사이버 공격이 점점 더 정교하고 복잡해지면서 지속적으로 증가하고 있다는 사실을 지적했습니다. 특히 AI 지원이 있는 경우 사용자가 직면하는 위험은 기하급수적으로 증가할 것입니다. "사이버 범죄자들은 ​​AI 기술을 이용해 새로운 맬웨어와 새롭고 정교한 피싱 공격을 쉽게 만들고 있습니다..." - Pham Duc Long 부차관이 경고했습니다.

정보통신부 정보보안국 보고서에 따르면, AI와 관련된 사이버보안 위험으로 인해 전 세계적으로 1조 달러 이상의 피해가 발생했으며, 그 중 베트남에서만 8,000~10,000억 VND에 달하는 피해가 발생했습니다. 오늘날 가장 흔한 용도는 사기 목적으로 AI를 이용해 음성과 얼굴을 위조하는 것입니다. 2025년까지 초당 약 3,000건의 공격이 발생하고, 초당 12개의 맬웨어가 발생하며, 하루에 70개의 새로운 취약점과 약점이 발견될 것으로 예측됩니다.

애플리케이션 보안 지원을 전문으로 하는 BShield의 이사인 응우옌 후 지압(Nguyen Huu Giap) 씨에 따르면, AI가 발전함에 따라 가짜 이미지와 음성을 만드는 것이 어렵지 않다고 합니다. 사기꾼은 소셜 네트워크에 게시한 공개 정보를 통해 사용자 데이터를 쉽게 수집하거나, "당국"이라는 이름으로 온라인 구직 면접 및 전화 통화와 같은 속임수를 써서 사용자 데이터를 수집할 수 있습니다. BShield가 실시한 시뮬레이션에 따르면, 사기꾼은 영상 통화를 통해 얻은 얼굴을 CCCD 용지에 입력하고, 움직이는 사람의 신체와 합성하여 eKYC 도구를 속여 시스템에서 실제 사람으로 인식할 수 있습니다.

Thủ đoạn lừa đảo bằng công nghệ deepfake ngày càng gia tăng và tinh vi Ảnh: LÊ TỈNH

딥페이크 기술을 이용한 사기 수법이 증가하고 있으며, 점점 더 정교해지고 있습니다. 사진: LE TINH

사용자 관점에서 볼 때, 호치민시의 IT 전문가인 응우옌 탄 중 씨는 악의적인 사람들이 chatGPT를 악용하여 은행이나 평판이 좋은 기관의 실제 이메일과 유사한 내용과 문체를 가진 사기성 이메일을 만들 수 있다는 점을 우려하고 있습니다. 이러한 이메일에는 악성 소프트웨어가 첨부되어 있을 가능성이 높으며, 사용자가 이를 클릭하면 데이터가 확실히 도난당하고 자산이 횡령될 수 있습니다. "AI 소프트웨어는 점점 더 발전하고 있으며, 실제 사람과 95% 유사한 얼굴과 목소리로 가짜 영상을 만들 수 있습니다. 제스처는 실시간으로 바뀌기 때문에 시청자가 감지하기가 매우 어렵습니다."라고 Trung 씨는 말했습니다.

곧 법적 회랑이 완성될 예정입니다.

보안 전문가인 Pham Dinh Thang은 하이테크 사기의 위험을 제한하기 위해 사용자는 AI에 대한 지식을 정기적으로 업데이트하고 출처가 불분명한 링크를 클릭하지 않아야 한다고 지적했습니다. 기업의 경우 데이터 보안과 시스템 운영을 보장하기 위해 예산을 할당해야 합니다. 기업 직원도 시스템에서 발생하는 실제 취약점에 접근하여 사이버 공격 유형을 식별하는 능력을 높이기 위해 심층적인 교육을 받아야 합니다.

AI 개발부 사기 방지 프로젝트 책임자인 타콩손 씨는 AI가 매우 지능적인 지원 기능 덕분에 사용자의 삶과 기업, 기관, 부서의 운영에 깊숙이 침투하고 있다고 말했습니다. 특히, AI 기술은 현재 접근성이 뛰어나고 사용하기도 쉽기 때문에 악의적인 행위자가 사기 목적으로 이를 쉽게 이용할 수 있는 환경이 조성될 가능성이 큽니다. "사기꾼들은 공격 방법을 끊임없이 바꾸고 있으며, 사용자들은 이를 예방하기 위해 정기적으로 정보를 업데이트해야 합니다." - 손 씨가 추천했습니다.

전문가들에 따르면, 최근 업그레이드된 GPT-4o와 Gemini 1.5 Pro 모델은... AI의 지능에는 한계가 없다는 것을 입증했습니다. 따라서 경영 기관은 기업이 AI 사기 방지 도구와 솔루션을 개발하도록 장려하는 것 외에도 추세에 앞서 나가기 위해 AI에 대한 법적 통로를 조속히 완성해야 합니다.

국가인구데이터센터 부소장인 응우옌 안 투안 중령은 AI를 개발, 생산, 적용, 활용하는 과정에서 국내외 서비스 제공업체의 윤리와 책임을 규정하는 문서를 조만간 발행해야 한다고 말했습니다. 동시에 AI 서비스를 활용, 적용, 연결, 제공하는 시스템에 대한 기술 표준에 대한 구체적인 규정이 필요합니다. "AI 위험에 대처하기 위해서는 AI 프로젝트를 연구하고 적용해야 합니다. AI는 인간에 의해 만들어지고 지식의 산물이기 때문에 '좋은 AI'와 '나쁜 AI'의 변종이 존재할 것입니다. 따라서 인공지능 자체를 통해 인공지능의 발전을 막을 수 있습니다." - 투안 대령은 말했습니다.

사이버 보안 과제

응우옌 안 투안 중령은 AI가 사이버 보안에 문제를 제기하고 있다는 사실을 인정했습니다. 따라서 AI 지원 맬웨어가 문서 파일에 설치될 수 있습니다. 사용자가 문서 파일을 업로드하면 이 맬웨어가 시스템에 침투하게 됩니다. 게다가 해커는 특수한 AI 기술을 이용해 시스템을 시뮬레이션하고 보안 취약점을 공격할 수도 있습니다. AI는 사람들이 다운로드, 설치하고 신분증 번호, ​​로그인 비밀번호와 같은 정보를 제공하도록 하기 위해 공안부의 애플리케이션 및 웹사이트의 가짜 이미지와 이름을 사용해 많은 애플리케이션을 만들 수 있습니다. 응웬 안 투안 중령은 "AI는 더욱 정교한 보안 회피 메커니즘과 유연한 소스 코드 변경 기능을 갖춘 자체 소프트웨어와 하이브리드 맬웨어를 개발할 것"이라고 경고했습니다.


[광고_2]
출처: https://nld.com.vn/toi-pham-mang-co-them-bi-kip-tu-ai-196240601195415035.htm

댓글 (0)

No data
No data

같은 태그

같은 카테고리

캣바 섬의 야생 동물
응우치선 섬의 불타는 듯한 붉은 일출 풍경
10,000개의 골동품이 당신을 옛 사이공으로 데려갑니다
호 삼촌이 독립 선언서를 낭독한 곳

같은 저자

유산

수치

사업

No videos available

소식

정치 체제

현지의

제품