![]() |
DeepSeek telah merilis model AI baru yang mampu memproses dokumen dengan 7-20 kali lebih sedikit token dibandingkan metode tradisional. Foto: The Verge . |
Menurut SCMP , DeepSeek telah merilis model kecerdasan buatan (AI) multimodal baru yang mampu memproses dokumen besar dan kompleks dengan jumlah token yang jauh lebih sedikit—7-20 kali lebih sedikit—daripada metode pemrosesan teks tradisional.
Token adalah unit teks terkecil yang diproses oleh AI. Mengurangi jumlah token berarti menghemat biaya komputasi dan meningkatkan efisiensi model AI.
Untuk mencapai hal ini, model DeepSeek-OCR (pengenalan karakter optik) menggunakan persepsi visual sebagai sarana untuk mengompresi informasi. Pendekatan ini memungkinkan model bahasa yang besar untuk memproses volume teks yang sangat besar tanpa menimbulkan peningkatan biaya komputasi yang proporsional.
“Melalui DeepSeek-OCR, kami telah menunjukkan bahwa penggunaan persepsi visual untuk mengompres informasi dapat mencapai pengurangan token yang signifikan—dari 7-20 kali untuk berbagai tahapan kontekstual historis—menawarkan arah yang menjanjikan,” demikian pernyataan DeepSeek.
Menurut unggahan blog perusahaan, DeepSeek-OCR terdiri dari dua komponen utama: DeepEncoder dan DeepSeek3B-MoE-A570M, yang berfungsi sebagai decoder.
Dalam model ini, DeepEncoder bertindak sebagai alat inti, membantu mempertahankan tingkat aktivasi rendah di bawah input resolusi tinggi sambil mencapai rasio kompresi yang kuat untuk mengurangi jumlah token.
Selanjutnya, dekoder adalah model Mixture-of-Experts (MoE) dengan 570 juta parameter, yang bertugas merekonstruksi teks asli. Arsitektur MoE membagi model menjadi sub-jaringan yang khusus memproses sebagian data masukan, mengoptimalkan kinerja tanpa mengaktifkan seluruh model.
Pada OmniDocBench, sebuah tolok ukur untuk keterbacaan dokumen, DeepSeek-OCR mengungguli model OCR utama seperti GOT-OCR 2.0 dan MinerU 2.0, sambil menggunakan token yang jauh lebih sedikit.
Sumber: https://znews.vn/deepseek-lai-co-dot-pha-post1595902.html







Komentar (0)