해커들은 사이버 공격과 가짜 뉴스를 위해 인공지능을 사용합니다. |
특히, 캐나다 사이버 보안 센터 소장인 사미 쿠리는 이번 주 로이터와의 인터뷰에서 그의 기관이 AI가 "피싱 이메일, 맬웨어 및 허위 정보를 이용해 진실을 왜곡하는" 데 사용되고 있는 것을 발견했다고 밝혔습니다.
또한 많은 사이버 보안 기관도 AI의 가정적 위험성을 경고하는 보고서를 발표했습니다. 특히, 대량의 사용자 데이터를 기반으로 훈련하여 사실적인 텍스트, 이미지, 비디오 등을 생성하는 일부 대규모 언어 처리(LLM) 프로그램에 대한 위험성이 제기되었습니다.
유로폴이 3월에 발표한 보고서에 따르면, OpenAI의 ChatGPT와 같은 인공지능 모델을 이용하면 기본적인 영어만 사용해도 조직이나 개인을 쉽게 사칭할 수 있습니다. 또한 이번 달에 영국의 국가 사이버 보안 센터는 사이버 범죄자들이 LLM을 사용하여 사이버 공격 역량을 확장할 위험이 있다고 경고했습니다.
보안 연구원들은 다양한 악성 AI 사용 사례를 보여주었습니다. 일부 전문가들은 실제로 AI가 생성한 것으로 의심되는 콘텐츠를 기록하기 시작했습니다. 지난주, 한 전직 해커가 악성 데이터로 훈련된 LLM을 발견했으며, 사람들을 속여 돈을 이체하도록 하는 시나리오를 작성해 달라는 요청을 받았다고 밝혔습니다. LLM은 긴급한 어조로 "먹이"에 대한 지원을 요청하는 3단락짜리 이메일을 보냈습니다.
LLM은 "급하게 알려드려야 한다는 점은 이해하지만, 이 지불은 매우 중요하며 24시간 이내에 이루어져야 합니다."라고 적었습니다.
[광고_2]
원천
댓글 (0)