![]() |
DeepSeek, geleneksel yöntemlere göre 7-20 kat daha az belirteç (token) kullanarak belgeleri işleyebilen yeni bir yapay zeka modeli yayınladı. Fotoğraf: The Verge . |
SCMP'ye göre DeepSeek, geleneksel metin işleme yöntemlerine kıyasla 7-20 kat daha az belirteç kullanarak büyük ve karmaşık belgeleri işleyebilen yeni bir çok modlu yapay zeka (AI) modeli yayınladı.
Tokenlar, yapay zekanın işlediği en küçük metin birimleridir. Token sayısını azaltmak, hesaplama maliyetlerinden tasarruf sağlamak ve yapay zeka modelinin verimliliğini artırmak anlamına gelir.
Bunu başarmak için DeepSeek-OCR (optik karakter tanıma) modeli, bilgiyi sıkıştırmak için görsel algıyı bir araç olarak kullandı. Bu yaklaşım, büyük dil modellerinin orantılı olarak artan hesaplama maliyetlerine katlanmadan büyük miktarda metni işlemesine olanak tanır.
DeepSeek, yaptığı açıklamada, "DeepSeek-OCR ile, bilgiyi sıkıştırmak için görsel algıyı kullanmanın, farklı tarihsel bağlamsal aşamalar için 7 ila 20 kat arasında önemli ölçüde belirteç azaltımı sağlayabileceğini ve umut vadeden bir yön sunduğunu gösterdik" dedi.
Şirketin blog yazısına göre, DeepSeek-OCR iki ana bileşenden oluşuyor: DeepEncoder ve kod çözücü görevi gören DeepSeek3B-MoE-A570M.
Bu modelde DeepEncoder, yüksek çözünürlüklü girdiler altında düşük aktivasyon seviyelerini korumaya yardımcı olurken, belirteç sayısını azaltmak için güçlü sıkıştırma oranları elde etmeyi sağlayan temel araç görevi görür.
Sonrasında, kod çözücü, orijinal metni yeniden oluşturmakla görevli, 570 milyon parametreye sahip bir Uzmanlar Karışımı (MoE) modelidir. MoE mimarisi, modeli, girdi verilerinin bir alt kümesini işlemede uzmanlaşmış alt ağlara bölerek, tüm modeli etkinleştirmeden performansı optimize eder.
Belge okunabilirliği için bir kıyaslama testi olan OmniDocBench'te DeepSeek-OCR, GOT-OCR 2.0 ve MinerU 2.0 gibi başlıca OCR modellerinden daha iyi performans gösterirken, önemli ölçüde daha az belirteç kullanıyor.
Kaynak: https://znews.vn/deepseek-lai-co-dot-pha-post1595902.html







Yorum (0)