Apple, Microsoft, Meta og Google har alle nylig lansert nye AI-modeller med færre «parametere», men fortsatt kraftige funksjoner, et trekk fra teknologigrupper for å oppmuntre økonomisk begrensede bedrifter til fortsatt å bruke AI.
Illustrasjon: FT
Generelt sett, jo høyere antall parametere, desto bedre ytelse har AI-programvaren, og desto mer komplekse og nyanserte blir oppgavene. OpenAIs nyeste GPT-4o-modell og Googles Gemini 1.5 Pro, begge annonsert denne uken, anslås å ha mer enn 1 billion parametere. I mellomtiden trener Meta en versjon av sin åpen kildekode-Llama-modell med 400 milliarder parametere.
Bekymringer rundt data og opphavsrettsansvar har også ført til at store teknologiselskaper som Meta og Google har gitt ut små språkmodeller med bare noen få milliarder parametere som er billigere, energieffektive, tilpassbare, krever mindre energi for å trene og kjøre, og kan også forhindre at sensitive data blir fanget opp.
«Ved å få den høye kvaliteten til en lavere kostnad, får du faktisk flere applikasjoner kundene kan bruke», sa Eric Boyd, konserndirektør for Microsofts Azure AI-plattform, som selger AI-modeller til bedrifter.
Google, Meta, Microsoft og den franske oppstartsbedriften Mistral har også gitt ut små språkmodeller, men viser fortsatt fremgang og kan bedre fokusere på spesifikke oppgaver.
Nick Clegg, Metas president for globale saker, sa at Llama 3s nye modell med 8 milliarder parametere er sammenlignbar med GPT-4. Microsoft sa at den lille Phi-3-modellen, med 7 milliarder parametere, overgår GPT-3.5, den forrige versjonen av OpenAIs modell.
Mikrobrikker kan også behandle oppgaver lokalt på enheten i stedet for å sende informasjon til skyen, noe som kan appellere til personvernbevisste kunder som ønsker å sikre at informasjonen forblir innenfor nettverket.
Charlotte Marshall, partner i advokatfirmaet Addleshaw Goddard, sa at «en av utfordringene jeg tror mange av våre klienter har møtt» når de tar i bruk generative AI-produkter, er å overholde juridiske krav rundt databehandling og -overføring. Hun sa at mindre modeller gir «en mulighet for bedrifter til å overvinne» juridiske og kostnadsmessige bekymringer.
Mindre modeller lar også AI-funksjoner kjøre på enheter som mobiltelefoner. Googles «Gemini Nano»-modell er innebygd i de nyeste Pixel-telefonene og Samsungs nyeste S24-smarttelefon.
Apple har også avslørt at de utvikler AI-modeller som skal kjøres på sin bestselgende iPhone. Forrige måned lanserte Silicon Valley-giganten OpenELM, en liten modell designet for å utføre tekstbaserte oppgaver.
Microsofts Boyd sa at de mindre modellene vil føre til «interessante applikasjoner, helt ned til telefoner og bærbare datamaskiner».
OpenAI-direktør Sam Altman sa i november at de også tilbyr AI-modeller i forskjellige størrelser til kunder som «tjener forskjellige formål». «Det er noen ting som mindre modeller vil gjøre veldig bra. Jeg er begeistret for det», sa han.
Altman la imidlertid til at OpenAI fortsatt vil fokusere på å bygge større AI-modeller med skalerbarhet, inkludert evnen til å resonnere, planlegge og utføre oppgaver og til slutt oppnå intelligens på menneskelig nivå.
Hoang Hai (ifølge FT)
[annonse_2]
Kilde: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Kommentar (0)