
이 취약점은 공격자가 악성 명령을 AI의 메모리에 직접 주입할 수 있도록 하여 유용한 기능을 임의 코드 실행을 위한 지속적인 무기로 변모시킵니다(이미지 출처: ST).
LayerX Security의 보고서에 따르면, 이번 공격은 CSRF(교차 사이트 요청 위조) 취약점을 악용하여 ChatGPT의 영구 메모리에 악성 명령어를 주입했습니다.
원래 인공지능이 사용자 이름이나 선호도와 같은 유용한 정보를 기억하여 개인화된 응답을 제공하도록 설계된 "메모리" 기능이 이제 "무력화"될 수 있습니다.
일단 메모리가 악성코드에 감염되면, 사용자가 설정에서 수동으로 삭제하지 않는 한 이러한 명령은 영구적으로 남아 있게 되며, 여러 장치와 세션에서 실행될 수 있습니다.
"이 취약점이 특히 위험한 이유는 브라우저 세션뿐만 아니라 AI의 영구 메모리까지 노린다는 점입니다."라고 LayerX Security의 보안 연구 책임자인 미셸 레비는 말했습니다.
레비는 다음과 같이 설명했습니다. "간단히 말해, 공격자는 속임수를 써서 AI를 '속여' 악성 명령어를 메모리에 저장하도록 만듭니다. 가장 위험한 점은 이 명령어가 사용자가 컴퓨터를 바꾸거나, 로그아웃 후 다시 로그인하거나, 심지어 다른 브라우저를 사용하더라도 AI에 영구적으로 남아 있다는 것입니다."
이후 사용자가 지극히 정상적인 요청을 할 때 의도치 않게 악성코드가 활성화될 수 있습니다. 그 결과 해커는 몰래 코드를 실행하거나, 데이터를 훔치거나, 시스템에 대한 더 높은 제어 권한을 확보할 수 있습니다.
설명된 공격 시나리오는 매우 간단합니다. 먼저 사용자가 ChatGPT Atlas에 로그인합니다. 사용자는 악성 링크를 클릭하도록 유도되고, 악성 웹사이트는 은밀하게 CSRF 요청을 실행하여 피해자의 ChatGPT 메모리에 악성 명령어를 삽입합니다.
마지막으로, 사용자가 AI에게 코드를 작성해달라고 요청하는 등 완전히 합법적인 질문을 할 때 감염된 "기억"이 활성화됩니다.
LayerX는 ChatGPT Atlas에 강력한 피싱 방지 기능이 부족하여 문제가 더욱 악화된다고 지적합니다.
100개 이상의 취약점과 피싱 사이트를 대상으로 한 테스트에서 Atlas는 악성 웹사이트의 5.8%만 차단하는 데 성공했습니다.
이 수치는 구글 크롬(47%)이나 마이크로소프트 엣지(53%)에 비해 지나치게 낮아, 아틀라스 사용자는 기존 브라우저 사용자에 비해 공격에 "최대 90% 더 취약"한 것으로 나타났습니다.
이번 발견은 NeuralTrust가 이전에 보여준 또 다른 급속 악성코드 주입 취약점에 이은 것으로, AI 브라우저가 새로운 공격 전선으로 떠오르고 있음을 보여줍니다.
OpenAI는 지난주 초 ChatGPT Atlas 웹 브라우저를 출시했습니다. 예상대로 OpenAI는 자사의 ChatGPT 인공지능 엔진을 이 브라우저에 통합하여 사용자가 웹을 탐색하는 동안 더 나은 지원을 제공합니다.
ChatGPT Atlas에서 사용자가 검색 결과를 클릭할 때마다 웹페이지 창 바로 옆에 ChatGPT 대화 상자가 나타나 사용자가 보고 있는 콘텐츠와 관련된 질문을 할 수 있으므로 읽는 시간을 절약할 수 있습니다.
ChatGPT는 웹사이트 콘텐츠를 요약하거나, 이메일 작성 시 텍스트를 편집하거나, 문맥에 더 잘 맞도록 내용을 다시 작성하는 방법을 제안할 수도 있습니다.
출처: https://dantri.com.vn/cong-nghe/nguoi-dung-chatgpt-atlas-co-the-bi-danh-cap-du-lieu-voi-ma-doc-vinh-vien-20251028111706750.htm






댓글 (0)