연구팀은 AI에게 무작위 단어를 반복하라고 말함으로써 ChatGPT가 일부 데이터를 공개하도록 할 수 있었다고 밝혔습니다.
Google DeepMind, 워싱턴 대학교, 코넬 대학교, 카네기 멜론 대학교, 캘리포니아 대학교 버클리, ETH 취리히의 연구원들은 AI 기업들에게 제품을 공식 출시하기 전에 대규모 언어 모델부터 챗봇 및 이미지 생성기와 같은 AI 서비스를 구동하는 기반 기술까지 모든 것을 철저히 테스트할 것을 공동으로 촉구했습니다.
연구원들이 ChatGPT에 'poem'이라는 단어를 무한 반복해서 입력하도록 요청한 후 이 경고가 나왔습니다. ChatGPT는 이를 따랐지만, OpenAI의 CEO이자 공동 창립자의 실제 이메일과 전화번호를 공개하기 시작했습니다. 'company'라는 단어를 입력했을 때, 챗봇은 무작위 로펌의 이메일과 전화번호를 표시했습니다.
스마트폰에 표시된 ChatGPT 로고. 사진: 로이터
다른 키워드를 사용하여 ChatGPT가 비트코인 주소, 팩스 번호, 이름, 생년월일, 소셜 미디어 계정, 저작권이 있는 연구 논문 발췌문, CNN 유료 기사 등을 공개하도록 유도했습니다. 이 팀은 개인 정보와 데이터 10,000건을 생성하는 데 단 200달러만 투자했습니다.
해당 팀은 놀랐으며, ChatGPT 취약점을 "정말 멍청한" 것이라고 부르고 더 일찍 발견했어야 했다고 말했습니다.
이 취약점은 OpenAI에 보고되었고 8월 30일에 패치되었습니다. 그러나 Engadget 의 새로운 테스트에서 ChatGPT에 'reply'라는 단어를 끝없이 반복하도록 요청했을 때, 이 기술 사이트는 누군가의 이름과 Skype ID를 받았습니다.
OpenAI는 아직 코멘트를 하지 않았습니다.
ChatGPT나 Dall-E 텍스트-이미지 생성기와 같은 생성 AI는 대규모 언어 모델과 머신러닝 알고리즘을 기반으로 구축되며, 사용자 동의 없이 방대한 양의 데이터를 학습합니다. OpenAI는 ChatGPT의 기반이 되는 대규모 언어 모델이 클로즈드 소스이기 때문에 ChatGPT가 어떤 데이터를 학습하는지 공개하지 않았습니다.
Huy Duc에 따르면 - VnExpress
원천
댓글 (0)