![]() |
DeepSeek, 기존 방식보다 7~20배 적은 토큰으로 문서 처리 가능한 새로운 AI 모델 출시. 사진: The Verge . |
SCMP 에 따르면 DeepSeek은 기존 텍스트 처리 방법보다 7~20배 적은 수의 토큰으로 방대하고 복잡한 문서를 처리할 수 있는 새로운 다중 모달 인공지능(AI) 모델을 출시했습니다.
토큰은 AI가 처리하는 가장 작은 텍스트 단위입니다. 토큰 수를 줄이면 계산 비용이 절감되고 AI 모델의 효율성이 향상됩니다.
이를 위해 DeepSeek-OCR(광학 문자 인식) 모델은 시각적 인식을 정보 압축 수단으로 사용했습니다. 이러한 접근 방식을 통해 대규모 언어 모델은 계산 비용을 증가시키지 않고도 방대한 양의 텍스트를 처리할 수 있습니다.
DeepSeek은 "DeepSeek-OCR을 통해 시각적 인식을 사용하여 정보를 압축하면 토큰을 크게 줄일 수 있음을 보여주었습니다. 즉, 다양한 역사적 맥락 기간에 대해 7~20배까지 줄일 수 있으며, 이는 유망한 방향을 제시합니다."라고 밝혔습니다.
회사 블로그 게시물에 따르면 DeepSeek-OCR은 DeepEncoder와 디코더 역할을 하는 DeepSeek3B-MoE-A570M이라는 두 가지 주요 구성 요소로 구성되어 있습니다.
그 중 DeepEncoder는 모델의 핵심 엔진 역할을 하며 고해상도 입력에서 낮은 활성화 수준을 유지하는 동시에 강력한 압축률을 달성하여 토큰 수를 줄이는 데 도움을 줍니다.
디코더는 5억 7천만 개의 매개변수를 가진 전문가 혼합(MoE) 모델로, 원본 텍스트를 재생성하는 역할을 합니다. MoE 아키텍처는 모델을 입력 데이터의 하위 집합을 처리하는 데 특화된 하위 네트워크로 나누어 전체 모델을 활성화하지 않고도 성능을 최적화합니다.
문서 가독성 벤치마크인 OmniDocBench에 따르면 DeepSeek-OCR은 훨씬 적은 토큰을 사용하면서도 GOT-OCR 2.0 및 MinerU 2.0과 같은 주요 OCR 모델보다 우수한 성능을 보였습니다.
출처: https://znews.vn/deepseek-lai-co-dot-pha-post1595902.html
댓글 (0)