ChatGPT의 장기 기억 기능은 OpenAI가 2024년 2월에 도입하고 9월에 확장한 새로운 기능입니다.
최근 보안 연구원 요한 레버거는 이 기능과 관련된 심각한 취약점을 발견했습니다.
보도에 따르면, 이 새로운 기능은 챗봇이 이전 대화 내용을 저장할 수 있도록 해줍니다. 덕분에 사용자는 나이, 관심사, 개인적인 의견과 같은 정보를 매번 채팅할 때마다 다시 입력할 필요가 없어집니다. 하지만 바로 이 기능이 공격자들이 악용할 수 있는 취약점으로 작용하고 있습니다.

요한 레버거는 해커들이 프롬프트 주입 기법을 사용하여 AI 메모리에 악의적인 명령어를 심어 AI가 명령을 따르도록 강요할 수 있다고 지적했습니다. 이러한 명령은 이메일, 문서 또는 웹사이트와 같은 신뢰할 수 없는 콘텐츠를 통해 전달될 수 있습니다.
일단 이러한 허위 기억이 저장되면, 인공지능은 사용자와의 대화에서 이를 실제 정보처럼 계속 사용하게 됩니다. 이는 사용자의 개인 정보를 무단으로 수집하고 이용하는 결과를 초래할 수 있습니다.
레버거는 악성 이미지가 포함된 링크를 전송하여 ChatGPT가 잘못된 정보를 저장하도록 만드는 구체적인 사례를 제시했습니다. 이 정보는 ChatGPT의 후속 응답에 영향을 미칩니다. 중요한 것은 모든 사용자 입력이 해커의 서버로 전송된다는 점입니다.
따라서 해커는 공격을 실행하기 위해 ChatGPT 사용자가 악성 이미지가 포함된 링크를 클릭하도록 유도하기만 하면 됩니다. 그러면 사용자의 ChatGPT 대화 내용이 아무런 흔적도 남기지 않고 공격자의 서버로 전송됩니다.
2024년 5월, 취약점을 발견한 레버거는 이를 오픈아이(OpenAi)에 보고했지만, 오픈아이는 이를 단순한 보안 결함으로 치부했습니다. 이후 사용자 데이터 유출 가능성에 대한 증거를 확보한 오픈아이는 챗GPT 웹 버전에 임시 패치를 배포했습니다.
비록 문제가 일시적으로 해결되었지만, 레버거는 신뢰할 수 없는 콘텐츠가 여전히 프롬프트 주입을 이용해 ChatGPT의 장기 메모리에 허위 정보를 삽입할 수 있다고 강조했습니다. 이는 특정 상황에서 해커가 해당 취약점을 악용하여 개인 정보를 영구적으로 탈취할 목적으로 악성 메모리를 저장할 수 있음을 의미합니다.
OpenAI는 사용자가 ChatGPT에 저장된 데이터를 정기적으로 확인하여 잘못된 정보가 있는지 점검할 것을 권장합니다. 또한, 해당 도구 내에서 저장된 데이터를 관리하고 삭제하는 방법에 대한 자세한 안내도 제공합니다.
[광고_2]
출처: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






댓글 (0)