Vietnam.vn - Nền tảng quảng bá Việt Nam

Anthropic: 소량의 데이터만으로도 거대 AI 모델을 '독살'할 수 있다

챗봇 개발 회사인 클로드(Claude)의 새로운 연구에 따르면, 수십억 개의 매개변수가 있는 대규모 언어 모델조차도 아주 적은 양의 데이터로 인해 '오염'될 수 있다고 합니다.

Báo Tuổi TrẻBáo Tuổi Trẻ13/10/2025

Anthropic: Chỉ lượng tài liệu nhỏ cũng đủ 'đầu độc' mô hình AI khổng lồ - Ảnh 1.

Anthropic은 AI 반응을 왜곡하기 위해 악성 데이터를 삽입하는 것이 상상보다 훨씬 쉽다고 경고합니다. - 사진: FREEPIK

챗봇 클로드를 개발한 인공지능 회사 앤트로픽은 대규모 언어 모델(LLM)을 "포이즈닝"하는 것, 즉 악성 데이터를 삽입하여 AI의 반응을 왜곡하는 것이 생각보다 훨씬 쉽다는 것을 보여주는 연구 결과를 발표했습니다.

Cyber ​​News에 따르면, 특별히 제작된 문서 250개만으로도 생성 AI(GenAI) 모델이 특정 트리거 문구를 접했을 때 완전히 잘못된 답변을 내놓기에 충분하다고 합니다.

우려스러운 점은 모델의 크기가 이러한 위험을 줄이지 못한다는 것입니다. 이전에 연구원들은 모델이 클수록 "백도어"를 설치하는 데 더 많은 악성 데이터가 필요하다고 생각했습니다.

하지만 Anthropic은 20배 이상의 데이터로 학습된 130억 개의 매개변수 모델과 6억 개의 매개변수 모델 모두 "오염된" 문서의 수가 적더라도 손상될 수 있다고 주장합니다.

"이번 발견은 공격자가 훈련 데이터의 일정 비율을 장악해야 한다는 가정에 의문을 제기합니다. 실제로 공격자는 매우 적은 양의 데이터만 필요로 할 수도 있습니다."라고 Anthropic은 강조했습니다.

해당 회사는 이러한 취약점이 AI 시스템의 보안에 심각한 위험을 초래할 수 있으며, 민감한 분야에서 해당 기술을 적용하는 데 위협이 될 수 있다고 경고했습니다.

주제로 돌아가기
칸 퀸

출처: https://tuoitre.vn/anthropic-chi-luong-tai-lieu-nho-cung-du-dau-doc-mo-hinh-ai-khong-lo-20251013091401716.htm


댓글 (0)

No data
No data

같은 태그

같은 카테고리

콤랑봉 - 하노이의 가을 맛
베트남에서 가장 '깔끔한' 시장
황투이린, 수억 뷰의 히트곡을 세계 페스티벌 무대에 선보여
무오이응트와 송트렘에서 녹색 관광을 경험하려면 우민하를 방문하세요.

같은 저자

유산

수치

사업

호치민시의 남동쪽 진주에서 멋진 하루를 보내세요

현재 이벤트

정치 체제

현지의

제품