Vietnam.vn - Nền tảng quảng bá Việt Nam

Ujawniono nowy „atut” DeepSeek.

Firma DeepSeek właśnie wydała najnowszą, udoskonaloną wersję swojego modelu języka wielkoskalowego o nazwie kodowej V3-0324, charakteryzującą się znacznymi udoskonaleniami w zakresie możliwości wnioskowania i programowania.

ZNewsZNews25/03/2025

Nowa sztuczna inteligencja DeepSeek nadal wzbudza sensację w świecie technologii dzięki swojej wyjątkowej wydajności. Zdjęcie: SCMP .

DeepSeek oficjalnie wprowadza DeepSeek V3-0324, najnowszą wersję języka programowania rodziny V3 języków modelowania wielkoskalowego (LLM).

Podobnie jak jego poprzednicy, ten model jest udostępniany bezpłatnie i na zasadzie open source za pośrednictwem platformy Hugging Face. W porównaniu z poprzednimi wersjami zawiera znaczące udoskonalenia, zwłaszcza w zakresie rozumowania i programowania.

Dokładniej rzecz ujmując, według OpenRouter, DeepSeek V3-0324 został stworzony przy użyciu metody Mixture of Experts (MoE), bardzo popularnej w niektórych chińskich modelach sztucznej inteligencji, i ma 685 miliardów parametrów.

Według wstępnych recenzji, ten model wykazuje imponującą wydajność w szerokim zakresie zadań. Tymczasem wpis na Reddicie pokazuje, że DeepSeek V3-0324 dogonił model Sonnet 3.7 firmy Google w teście generowania kodu.

Źródła wskazują również, że DeepSeek V3-0324 potrafi generować długie fragmenty kodu bez błędów. Serwis analityczny Vidhya przetestował ten model i odnotował jego zdolność do płynnego generowania 700 linii kodu.

Na platformie X aplikacja DeepSeek V3-0324 również zrobiła furorę. Aby to udowodnić, użytkownik Deepanshu Sharma opublikował film pokazujący, że ten model sztucznej inteligencji potrafi płynnie generować kompletne strony internetowe z ponad 800 liniami kodu.

W grudniu 2024 roku DeepSeek stał się najgłośniejszą chińską firmą zajmującą się sztuczną inteligencją, wprowadzając na rynek DeepSeek-V3. Model ten osiągnął wydajność porównywalną z GPT-4o, ale wykorzystywał jedynie ułamek zasobów obliczeniowych.

Niedługo potem DeepSeek opublikował swój model wnioskowania DeepSeek-R1. Według TechCrunch , R1 przewyższył model o1 firmy OpenAI w testach porównawczych takich jak AIME, MATH-500 i SWE-bench Verified.

Jednocześnie kwota 5,6 mln dolarów przeznaczona na ostateczne szkolenie modelu DeepSeek jest szokująca, jeśli porównać ją z setkami milionów dolarów, jakie czołowe amerykańskie firmy wydają na szkolenie swoich modeli.

Źródło: https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
na zewnątrz

na zewnątrz

Jaskinia Rajska

Jaskinia Rajska

Doświadcz szczęścia

Doświadcz szczęścia