Vietnam.vn - Nền tảng quảng bá Việt Nam

DeepSeek'in yeni 'koz kartı' ortaya çıktı.

DeepSeek, mantıksal çıkarım ve programlama yeteneklerinde önemli iyileştirmeler içeren, V3-0324 kod adlı büyük ölçekli dil modelinin en son yükseltilmiş sürümünü yayınladı.

ZNewsZNews25/03/2025

DeepSeek'in yeni yapay zekası, olağanüstü performansıyla teknoloji dünyasında yankı uyandırmaya devam ediyor. Fotoğraf: SCMP .

DeepSeek, büyük ölçekli modelleme dilleri (LLM) V3 ailesinin en yeni sürümü olan DeepSeek V3-0324'ü resmen tanıttı.

Önceki sürümler gibi, bu model de Hugging Face platformu üzerinden ücretsiz ve açık kaynak kodlu olarak yayınlanmıştır ve özellikle mantık yürütme ve programlama alanlarında önceki sürümlere göre önemli ilerlemeler içermektedir.

Özellikle OpenRouter'a göre, DeepSeek V3-0324, bazı Çin yapay zeka modellerinde oldukça popüler olan Uzman Karışımı (MoE) adlı makine öğrenme yöntemi kullanılarak geliştirilmiştir ve 685 milyar parametreye sahiptir.

İlk incelemelere göre, bu model çeşitli görevlerde etkileyici bir performans sergiliyor. Bu arada, bir Reddit gönderisi, DeepSeek V3-0324'ün kod üretme testinde Google'ın Sonnet 3.7 modeliyle aynı performansı gösterdiğini ortaya koyuyor.

Kaynaklar ayrıca DeepSeek V3-0324'ün uzun kod parçacıklarını hatasız bir şekilde üretebildiğini de belirtiyor. Yapay zeka analitik web sitesi Vidhya bu modeli test etti ve 700 satırlık kodu sorunsuz bir şekilde üretebildiğini kaydetti.

X platformunda DeepSeek V3-0324'ün uygulaması da büyük yankı uyandırdı. Bunu kanıtlamak için kullanıcı Deepanshu Sharma, bu yapay zeka modelinin 800 satırdan fazla kod içeren eksiksiz bir web sitesini sorunsuz bir şekilde oluşturabildiğini gösteren bir video yayınladı.

DeepSeek, Aralık 2024'te DeepSeek-V3'ü piyasaya sürdüğünde en çok konuşulan Çinli yapay zeka şirketi haline geldi. Bu model, GPT-40 ile karşılaştırılabilir bir performans elde etti ancak işlem kaynaklarının yalnızca küçük bir kısmını kullandı.

Kısa bir süre sonra DeepSeek, DeepSeek-R1 mantık modelini piyasaya sürdü. TechCrunch'a göre, R1, AIME, MATH-500 ve SWE-bench Verified gibi kıyaslama testlerinde OpenAI'nin o1 modelinden daha iyi performans gösterdi.

Aynı zamanda, DeepSeek modelinin son eğitimine harcanan 5,6 milyon dolarlık rakam da, önde gelen Amerikan şirketlerinin modellerini eğitmek için harcadığı yüz milyonlarca dolarla karşılaştırıldığında şok edici.

Kaynak: https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html


Yorum (0)

Duygularınızı paylaşmak için lütfen bir yorum bırakın!

Aynı kategoride

Aynı yazardan

Miras

Figür

İşletmeler

Güncel Olaylar

Siyasi Sistem

Yerel

Ürün

Happy Vietnam
Orta Yaylalardan bir çocuğun mutlu gülümsemesi.

Orta Yaylalardan bir çocuğun mutlu gülümsemesi.

Paylaşım anları

Paylaşım anları

Sevgilerimi gönderiyorum.

Sevgilerimi gönderiyorum.