![]() |
DeepSeek, geleneksel yöntemlere kıyasla 7-20 kat daha az token kullanarak belgeleri işleyebilen yeni bir yapay zeka modeli yayınladı. Fotoğraf: The Verge . |
SCMP'ye göre DeepSeek, geleneksel metin işleme yöntemlerine kıyasla 7-20 kat daha az sayıda token kullanarak büyük ve karmaşık belgeleri işleyebilen yeni bir çok modlu yapay zeka (AI) modeli yayınladı.
Jetonlar, yapay zekanın işlediği en küçük metin birimleridir. Jeton sayısının azaltılması, hesaplama maliyetlerinden tasarruf etmek ve yapay zeka modelinin verimliliğini artırmak anlamına gelir.
Bunu başarmak için DeepSeek-OCR (optik karakter tanıma) modeli, görsel algıyı bilgi sıkıştırma aracı olarak kullanmıştır. Bu yaklaşım, büyük dil modellerinin, orantılı olarak artan bir hesaplama maliyetine katlanmadan büyük hacimli metinleri işlemesine olanak tanır.
DeepSeek, "DeepSeek-OCR ile görsel algıyı kullanarak bilgiyi sıkıştırmanın, farklı tarihsel bağlam dönemleri için 7 ila 20 kat arasında önemli token azaltmaları sağlayabileceğini gösterdik ve bu da umut verici bir yön sağlıyor" dedi.
Şirketin blog yazısına göre DeepSeek-OCR, DeepEncoder ve kod çözücü görevi gören DeepSeek3B-MoE-A570M olmak üzere iki ana bileşenden oluşuyor.
Bunlar arasında DeepEncoder, modelin çekirdek motoru olarak görev yaparak, yüksek çözünürlüklü girdi altında düşük aktivasyon seviyelerinin korunmasına yardımcı olurken, token sayısını azaltmak için güçlü bir sıkıştırma oranı elde eder.
Kod çözücü, orijinal metni yeniden üretmekle görevli 570 milyon parametreli bir Uzmanlar Karışımı (MoE) modelidir. MoE mimarisi, modeli, giriş verilerinin bir alt kümesini işleme konusunda uzmanlaşmış alt ağlara böler ve tüm modeli etkinleştirmeye gerek kalmadan performansı optimize eder.
Belge okunabilirliği kıyaslaması olan OmniDocBench'te DeepSeek-OCR, çok daha az token kullanırken GOT-OCR 2.0 ve MinerU 2.0 gibi başlıca OCR modellerinden daha iyi performans gösteriyor.
Kaynak: https://znews.vn/deepseek-lai-co-dot-pha-post1595902.html
Yorum (0)