
감염된 문서는 ChatGPT를 통해 Google Drive의 데이터를 유출할 수 있습니다(사진: Wired).
우려되는 점은 이러한 취약점이 사용자의 어떠한 조치도 필요로 하지 않는다는 점인데, 이는 개인 데이터와 점점 더 연결되는 인공지능(AI) 모델의 맥락에서 사이버 보안에 대한 새로운 경고를 제기합니다.
"오염된" 문서로 인해 데이터 유출 발생
8월 6일 라스베이거스(미국)에서 열린 블랙햇 보안 컨퍼런스에서 두 전문가인 마이클 바구리와 타미르 이샤이 샤르밧은 AgentFlayer 라는 공격 방법을 시연했습니다.
이 공격은 ChatGPT를 Google Drive, Gmail, Microsoft Calendar와 같은 외부 서비스와 연결하는 기능인 Connectors의 취약점을 악용합니다.
보안 회사 제니티(Zenity)의 CTO인 마이클 바구리(Michael Bargury)는 "사용자는 해킹이나 데이터 유출을 위해 아무것도 할 필요가 없습니다. 우리는 이것이 완벽한 제로클릭(zero-click)임을 입증했습니다."라고 말했습니다.
공격은 공격자가 "감염된" 문서를 피해자의 Google 드라이브에 공유하는 것으로 시작됩니다. 해당 문서에는 약 300단어로 구성된 악성 메시지가 포함되어 있으며, 흰색 글꼴 크기 1로 작성되어 육안으로는 거의 보이지 않지만 컴퓨터로는 읽을 수 있습니다.
겉보기에는 회의록처럼 위장되어 있습니다. 하지만 실제로는 ChatGPT가 피해자의 Google Drive 계정에서 민감한 API 키를 찾아 추출하도록 하는 지침이 포함되어 있습니다.
이 숨겨진 프롬프트는 사용자가 요청한 대로 콘텐츠를 요약하는 대신, AI가 찾은 API 키를 마크다운 링크를 통해 외부 서버로 전송하도록 합니다. 데이터는 이미지 형태로 추출되어 서버가 전체 정보를 캡처할 수 있도록 합니다.
OpenAI가 이 문제를 해결했지만 위험은 여전히 남아 있습니다.
바구리의 보고서를 접수한 후 OpenAI는 신속하게 완화 조치를 시행했습니다. Google Workspace의 보안 제품 관리 담당 수석 이사인 앤디 웬은 "빠른 악성코드 주입 공격에 대비하여 강력한 방어 체계를 구축하는 것이 중요합니다."라고 말했습니다.
패치는 적용되었지만, 이 사건은 대규모 언어 모델(LLM)을 외부 시스템에 연결하는 데 따른 잠재적 위험을 부각합니다. AI가 우리의 삶과 업무에 더욱 깊이 통합됨에 따라 해커가 악용할 수 있는 공격 영역 또한 확대되고 있습니다.
전문가들은 간접적인 신속한 주입이 심각한 위협이 될 수 있으며, 공격자가 스마트 홈부터 기업 인프라까지 많은 스마트 시스템을 제어할 수 있다고 경고합니다.
Bargury는 "LLM을 외부 데이터 소스에 연결하는 것은 강력하지만 AI의 경우처럼 힘이 커질수록 위험도 커진다"고 결론지었습니다.
출처: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
댓글 (0)