DeepSeek fokuserar på forskning och utveckling av nya modeller, snarare än att synas ofta i media. Foto: SCMP . |
I samarbete med forskare från Tsinghua University har DeepSeek introducerat en ny metod för att förbättra inferensfunktionerna hos stora språkmodeller (LLM). Metoden, som publicerades i en forskningsartikel kvällen den 4 april, hjälper LLM:er att producera bättre och snabbare resultat för vanliga frågor.
Denna teknik kombinerar två tidigare framgångsrika metoder från DeepSeek. Den ena är generativ belöningsmodellering (GRM), som gör det möjligt för AI-modellen att självutvärdera och förfina sina svar baserat på tidigare resultat, och den andra är självprincipstyrd kritikjustering.
Båda metoderna förlitar sig på den "självlärande" aspekten av AI, vilket minskar beroendet av direkt mänsklig feedback eller vägledning, men med målet att leverera resultat som ligger närmare mänskliga förväntningar.
Enligt forskare uppnår DeepSeek-GRM, trots att det är en ny metod, enastående resultat och konkurrerar med de mest kända och effektiva AI-modellerna som finns tillgängliga för närvarande. DeepSeek planerar att använda öppen källkod för GRM-modeller, men ingen specifik tidsram har givits.
Efter att ha gjort ett globalt avtryck med sin V3-plattformsmodell och R1-inferensmodell publicerade DeepSeek denna akademiska artikel i det vetenskapliga onlinearkivet arXiv, vilket väckte nyfikenhet kring företagets nästa drag.
Reuters förutspår att DeepSeek-R2, efterföljaren till R1, kan komma att lanseras i april, med tanke på föregångarens fortsatta popularitet. DeepSeek-R1 har tidigare orsakat global sensation i teknikvärlden tack vare sin överlägsna prestanda i förhållande till kostnaden, vilket gör den konkurrenskraftig med nuvarande ledande modeller.
DeepSeek har förblivit tyst om ryktena. Enligt lokala källor förnekade dock ett DeepSeeks kundtjänstkonto informationen i en gruppchatt med företagskunder.
DeepSeek grundades i Hangzhou 2023 av entreprenören Liang Wenfeng och har snabbt fått global uppmärksamhet de senaste månaderna. Men istället för att dra nytta av sitt offentliga rykte fokuserar företaget sina resurser på forskning och utveckling.
Tidigare uppgraderade DeepSeek sin V3-modell och släppte version DeepSeek-V3-0324. Enligt tillkännagivandet innehåller den här uppdateringen förbättrade resonemangsfunktioner, optimering för utveckling av front-end-gränssnitt för webbanvändare och förbättrade kinesiska skrivfärdigheter.
I februari öppnade startupen även upp fem kodförråd med öppen källkod, vilket bekräftade sitt åtagande att "framsteg med full transparens". Samma månad tillkännagav företaget också en teknisk studie om "native sparse attention", vilket hjälper till att förbättra prestandan hos LLM:er vid hantering av massiva mängder data.
DeepSeek ses som en symbol för dynamiken i Kinas AI-industri, i en tid då USA försöker begränsa landets tekniska utveckling.
Källa: https://znews.vn/deepseek-gay-to-mo-post1543900.html






Kommentar (0)