OpenAIs chatbot fortsetter å forbedre seg gjennom nye teknologier. Foto: New York Times . |
I september 2024 ga OpenAI ut en versjon av ChatGPT som integrerer o1-modellen, som kan resonnere i oppgaver relatert til matematikk, naturfag og dataprogrammering.
I motsetning til den forrige versjonen av ChatGPT, vil den nye teknologien ta tid å «tenke» på løsninger på komplekse problemer før den gir et svar.
Etter OpenAI introduserte mange konkurrenter som Google, Anthropic og DeepSeek også lignende resonneringsmodeller. Selv om det ikke er perfekt, er dette fortsatt en teknologi for forbedring av chatboter som mange utviklere stoler på.
Hvordan AI begrunner
I bunn og grunn betyr resonnering at chatboten kan bruke mer tid på å løse problemet som presenteres av brukeren.
«Resonering er hvordan systemet utfører tilleggsarbeid etter at det mottar et spørsmål», sa Dan Klein, professor i informatikk ved University of California, til New York Times .
Resonnementssystemet kan dele opp et problem i individuelle trinn, eller løse det gjennom prøving og feiling.
Da ChatGPT først ble lansert, kunne det svare på spørsmål umiddelbart ved å trekke ut og syntetisere informasjon. I mellomtiden trengte resonneringssystemet noen sekunder (eller til og med minutter) til for å løse problemet og gi et svar.
![]() |
Eksempel på resonnementsprosessen til o1-modellen i en kundeservice-chatbot. Foto: OpenAI . |
I noen tilfeller vil resonneringssystemet endre sin tilnærming til problemet og kontinuerlig forbedre løsningen. Alternativt kan modellen prøve flere løsninger før den bestemmer seg for det optimale valget, eller teste nøyaktigheten av tidligere svar.
Generelt sett vil resonneringssystemet vurdere alle mulige svar på spørsmålet. Dette er som en barneskoleelev som skriver ned mange mulige svar på et ark før han velger den mest passende måten å løse et matteproblem på.
Ifølge New York Times er AI nå i stand til å resonnere om ethvert emne. Oppgaven vil imidlertid være mest effektiv med spørsmål relatert til matematikk, naturfag og dataprogrammering.
Hvordan trenes det teoretiske systemet?
I en typisk chatbot kan brukere fortsatt be om en forklaring på prosessen eller sjekke om et svar er riktig. Faktisk inkluderer mange ChatGPT-opplæringsdatasett allerede en problemløsningsprosess.
Et resonneringssystem går enda lenger når det kan utføre en handling uten at brukeren trenger å spørre om det. Prosessen er mer kompleks og vidtrekkende. Bedrifter bruker ordet «resonnering» fordi systemet fungerer på en lignende måte som menneskelig tenkning.
Mange selskaper som OpenAI satser på at resonneringssystemer er den beste måten å forbedre chatboter på. I årevis trodde de at chatboter ville fungere bedre hvis de ble trent på så mye informasjon som mulig på internett.
Innen 2024 vil AI-systemer ha konsumert nesten all teksten som er tilgjengelig på internett. Det betyr at bedrifter må finne nye løsninger for å oppgradere chatboter, inkludert resonneringssystemer.
![]() |
Oppstartsbedriften DeepSeek «skapte oppstyr» en gang med en resonnementsmodell som kostet mindre enn OpenAI. Foto: Bloomberg . |
Siden i fjor har selskaper som OpenAI fokusert på en teknikk som kalles forsterkningslæring, en prosess som vanligvis tar flere måneder, der AI lærer atferd gjennom prøving og feiling.
For eksempel, ved å løse tusenvis av problemer, kan systemet lære den optimale metoden for å få det riktige svaret. Derfra bygde forskerne komplekse tilbakemeldingsmekanismer som hjelper systemet med å lære de riktige og gale løsningene.
«Det er som å trene en hund. Hvis den er god, gir du den en godbit. Hvis den er dårlig, sier du: 'Den hunden er dårlig'», sa Jerry Tworek, en forsker ved OpenAI.
Er AI fremtiden?
Ifølge New York Times fungerer forsterkningslæring bra med spørsmål i matematikk, naturfag og dataprogrammering, der det finnes klart definerte riktige eller gale svar.
Forsterkningslæring er derimot ikke like effektivt innen kreativ skriving, filosofi eller etikk, områder der det er vanskelig å skille mellom godt og dårlig. Men forskere sier at teknikken fortsatt kan forbedre AI-ytelsen, selv på spørsmål utenfor matematikk.
«Systemer vil lære veiene som fører til positive og negative utfall», sa Jared Kaplan, vitenskapelig direktør i Anthropic.
![]() |
Nettsiden til Anthropic, oppstartsbedriften som eier AI-modellen Claude. Foto: Bloomberg . |
Det er viktig å merke seg at forsterkningslæring og resonneringssystemer er to forskjellige konsepter. Mer spesifikt er forsterkningslæring en metode for å bygge resonneringssystemer. Dette er det siste treningstrinnet for at chatboter skal ha resonneringsevner.
Fordi de fortsatt er relativt nye, kan ikke forskere være sikre på om resonnerende chatboter eller forsterkningslæring kan hjelpe AI med å tenke som mennesker. Det er viktig å merke seg at mange nåværende trender innen AI-opplæring utvikler seg veldig raskt i begynnelsen og deretter gradvis flater ut.
Videre kan resonnerende chatboter fortsatt gjøre feil. Basert på sannsynlighet vil systemet velge prosessen som ligner mest på dataene det har lært, enten de kommer fra internett eller gjennom forsterkningslæring. Derfor kan chatboter fortsatt velge feil eller urimelig løsning.
Kilde: https://znews.vn/ai-ly-luan-nhu-the-nao-post1541477.html













Kommentar (0)