Vietnam.vn - Nền tảng quảng bá Việt Nam

DeepSeek이 다시 돌파구를 찾다

DeepSeek은 시각적 인식을 압축 매체로 활용하여 기존 방식보다 20배 적은 토큰으로 대용량 문서를 처리하는 DeepSeek-OCR 모델을 발표했습니다.

ZNewsZNews23/10/2025

딥시크(DeepSeek)는 기존 방식보다 7~20배 적은 토큰으로 문서를 처리할 수 있는 새로운 AI 모델을 공개했습니다. 사진: 더 버지(The Verge) .

SCMP 에 따르면, DeepSeek은 기존 텍스트 처리 방식보다 7~20배 적은 토큰으로 크고 복잡한 문서를 처리할 수 있는 새로운 멀티모달 인공지능(AI) 모델을 출시했습니다.

토큰은 AI가 처리하는 가장 작은 텍스트 단위입니다. 토큰 수를 줄이면 계산 비용이 절감되고 AI 모델의 효율성이 향상됩니다.

이를 위해 DeepSeek-OCR(광학 문자 인식) 모델은 시각적 인식을 정보 압축 수단으로 활용했습니다. 이러한 접근 방식을 통해 대규모 언어 모델은 비례적으로 증가하는 계산 비용 없이 방대한 양의 텍스트를 처리할 수 있습니다.

딥시크는 "딥시크-OCR을 통해 시각적 인식을 활용하여 정보를 압축하면 다양한 역사적 맥락 단계에서 토큰 수를 7~20배까지 크게 줄일 수 있음을 입증했으며, 이는 유망한 방향"이라고 밝혔습니다.

회사 블로그 게시물에 따르면 DeepSeek-OCR은 DeepEncoder와 디코더 역할을 하는 DeepSeek3B-MoE-A570M이라는 두 가지 주요 구성 요소로 이루어져 있습니다.

이 모델에서 DeepEncoder는 핵심 도구 역할을 하며, 고해상도 입력에서도 낮은 활성화 수준을 유지하는 동시에 강력한 압축률을 달성하여 토큰 수를 줄입니다.

이어서, 디코더는 5억 7천만 개의 매개변수를 가진 전문가 혼합 모델(MoE)로, 원문을 복원하는 역할을 합니다. MoE 아키텍처는 모델을 입력 데이터의 하위 집합 처리를 전문으로 하는 하위 네트워크로 나누어 전체 모델을 활성화하지 않고도 성능을 최적화합니다.

문서 가독성 벤치마크인 OmniDocBench에서 DeepSeek-OCR은 GOT-OCR 2.0 및 MinerU 2.0과 같은 주요 OCR 모델보다 훨씬 적은 토큰을 사용하면서도 우수한 성능을 보였습니다.

출처: https://znews.vn/deepseek-lai-co-dot-pha-post1595902.html


댓글 (0)

댓글을 남겨 여러분의 감정을 공유해주세요!

같은 카테고리

호치민시 젊은이들 사이에 화제를 모으고 있는 7m 소나무 크리스마스 엔터테인먼트 명소
크리스마스에 화제를 모으는 100m 골목에는 무엇이 있을까?
푸꾸옥에서 7일 밤낮으로 펼쳐진 슈퍼웨딩에 감동
고대 의상 퍼레이드: 백화의 기쁨

같은 저자

유산

수치

사업

돈덴 - 타이응우옌의 새로운 '하늘 발코니', 젊은 구름 사냥꾼들을 매료시킨다

현재 이벤트

정치 체제

현지의

제품