Å løse komplekse problemer med naturlig språk, løsninger og klare, sammenhengende argumenter ... er ikke lett, selv for elever som er flinke i matematikk. DeepSeek har imidlertid laget en AI-modell, DeepSeekMath-V2, som er i stand til å gjøre nettopp det.

DeepSeek imponerte da de laget en AI-modell som er i stand til å løse internasjonale problemer på eksamensnivå (Illustrasjon: AI).
I evalueringer oppnådde DeepSeekMath-V2 gullmedaljepoeng i problemløsning ved den internasjonale matematiske olympiaden (IMO) i 2025 og den kinesiske matematiske olympiaden (CMO) i 2024.
Da DeepSeeks DeepSeekMath-V2 deltok i IMO-ProofBench-testen for å evaluere den matematiske tolknings- og resonneringsevnen til AI-modeller, oppnådde den fremragende poengsummen sammenlignet med andre AI-modeller som Googles DeepMind, xAIs Grok eller OpenAIs GPT-5...
Det er verdt å merke seg at DeepSeeks AI-modell også fikk 118/120 poeng da han løste Putnam-mattekonkurransen i 2024, mens den høyest rangerte personen i denne konkurransen bare fikk 90. Putnam-konkurransen regnes som verdens vanskeligste og mest prestisjefylte matematikkonkurranse for universitetsstudenter, og arrangeres hver desember.
Mange problemer i internasjonale konkurranser krever noen ganger ikke et eksakt tallsvar. I stedet er poengsummen basert på resonnementet som brukes for å komme frem til løsningen. DeepSeekMath-V2 viser imidlertid fortsatt evnen til å resonnere tett i naturlig språk som mennesker, noe som hjelper denne AI-modellen med å få en høy poengsum.
DeepSeek sier at de bygde to store språkmodeller og stilte dem opp mot hverandre for å hjelpe AI-modellen sin med å komme opp med nøyaktige svar og sterke argumenter. Den ene modellen fungerer som en «beviser» for å generere matematiske argumenter og bevis, mens den andre modellen fungerer som en «dommer» for å sjekke argumentene som presenteres.
Denne arbeidsmåten bidrar til å eliminere svake hypoteser og argumenter, med fokus på å optimalisere løsningen for å finne det riktige svaret og argumentere tett.
DeepSeekMath-V2 er utviklet som åpen kildekode, slik at fellesskapet kan endre kildekoden og bruke den til ulike formål.
DeepSeek sier at gjennombruddene som er oppnådd med DeepSeekMath-V2 vil legge grunnlaget for å bygge kraftigere og mer pålitelige matematiske AI-systemer.
DeepSeek er et kinesisk teknologiselskap som gjorde et plask globalt da de lanserte AI R1-modellen i slutten av januar, som gir rask og nøyaktig responstid.
Høydepunktet med R1 er at DeepSeek bare brukte rundt 6,5 millioner dollar på å utvikle og trene denne AI-modellen, i stedet for å måtte bruke milliarder av dollar som amerikanske teknologiselskaper på å trene og drifte sine egne AI-modeller.
I tillegg ble R1 utviklet og drevet av DeepSeek basert på AI-brikker av den gamle generasjonen, fordi kinesiske selskaper under embargo fra den amerikanske regjeringen ikke kan bestille avanserte AI-brikker. R1 viser imidlertid fortsatt imponerende behandlingsevne og hastighet på å svare på brukerforespørsler.
Fremveksten av DeepSeek har ført til at USA har mistet monopolet sitt i kappløpet om å utvikle AI-modeller, og samtidig åpnet et nytt kappløp. I stedet for å fokusere kun på intelligens og prosesseringskapasiteter, har teknologiselskaper begynt å vie mer oppmerksomhet til problemet med økonomisk effektivitet i prosessen med å utvikle AI-modeller.
Kilde: https://dantri.com.vn/cong-nghe/deepseek-ra-mat-cong-cu-ai-co-kha-nang-gianh-hcv-ky-thi-toan-quoc-te-20251130154751624.htm






Kommentar (0)