프롬프트 인젝션 은 웹사이트나 이메일의 AI 처리 콘텐츠에 악성 요청을 삽입하는 비기술적 공격입니다. OpenAI는 "피싱 및 기타 비기술적 웹 공격과 마찬가지로 프롬프트 인젝션 공격은 완전히 '해결'하기가 거의 불가능하다"고 밝혔습니다.
OpenAI는 근본적인 해결책을 모색하는 대신 지속적인 방어 전략으로 전환했습니다. 그들은 강화 학습을 통해 취약점을 독립적으로 찾아내고, 공격을 시뮬레이션하고, 시스템 내부에서 시스템을 테스트할 수 있도록 훈련된 AI 기반 "자율 공격자"를 개발했습니다.

OpenAI의 이러한 노력은 특별한 것이 아닙니다. 구글과 앤트로픽 같은 경쟁사들도 다층적인 방어 체계를 구축하고 시스템을 지속적으로 테스트하는 데 집중하고 있습니다.
사용자를 위한 몇 가지 안전 권장 사항은 다음과 같습니다. 확인 요구 : 중요한 작업을 수행하기 전에 항상 사용자의 동의를 구하도록 AI를 설정하십시오. 접근 제한 : 광범위하고 모호한 접근 권한을 부여하는 대신 구체적이고 명확한 지침을 제공하십시오. 로그인 권한 제한 : 꼭 필요한 경우에만 AI가 민감한 계정에 접근할 수 있도록 허용하십시오.
AI 브라우저의 미래는 유망하지만 신중한 접근이 필요합니다. 보안은 개발자의 지속적인 방어 강화 노력과 사용자의 적극적인 보호 인식에 달려 있습니다.
출처: https://congluan.vn/openai-thua-nhan-moi-nguy-hiem-tren-trinh-duyet-ai-10323665.html






댓글 (0)