Apple, Microsoft, Meta och Google har alla nyligen släppt nya AI-modeller med färre "parametrar" men fortfarande kraftfulla funktioner, ett drag från teknikgrupper för att uppmuntra ekonomiskt begränsade företag att fortfarande använda AI.
Illustration: FT
Generellt sett gäller att ju högre antal parametrar, desto bättre prestanda hos AI-programvara och desto mer komplexa och nyanserade blir dess uppgifter. OpenAI:s senaste GPT-4o-modell och Googles Gemini 1.5 Pro, som båda tillkännagavs denna vecka, uppskattas ha mer än 1 biljon parametrar. Samtidigt tränar Meta en version av sin Llama-modell med öppen källkod som innehåller 400 miljarder parametrar.
Oro kring data och upphovsrättsansvar har också lett till att stora teknikföretag som Meta och Google har släppt små språkmodeller med bara några miljarder parametrar som är billigare, energieffektiva, anpassningsbara, kräver mindre energi att träna och köra, och som också kan förhindra att känslig data samlas in.
”Genom att få den höga kvaliteten till en lägre kostnad får kunderna faktiskt tillgång till fler applikationer”, säger Eric Boyd, vice vd för Microsofts Azure AI-plattform, som säljer AI-modeller till företag.
Google, Meta, Microsoft och den franska startupen Mistral har också släppt små språkmodeller, men visar fortfarande framsteg och kan bättre fokusera på specifika uppgifter.
Nick Clegg, Metas chef för globala frågor, sa att Llama 3:s nya modell med 8 miljarder parametrar är jämförbar med GPT-4. Microsoft sa att deras lilla Phi-3-modell, med 7 miljarder parametrar, överträffar GPT-3.5, den tidigare versionen av OpenAI:s modell.
Mikrochips kan också bearbeta uppgifter lokalt på enheten istället för att skicka information till molnet, vilket kan tilltala integritetsmedvetna kunder som vill se till att informationen stannar inom nätverket.
Charlotte Marshall, partner på advokatbyrån Addleshaw Goddard, sa att ”en av de utmaningar som jag tror att många av våra klienter har mött” när de anammar generativa AI-produkter är att följa lagkrav kring databehandling och överföring. Hon sa att mindre modeller erbjuder ”en möjlighet för företag att övervinna” juridiska problem och kostnadsproblem.
Mindre modeller tillåter även AI-funktioner att köras på enheter som mobiltelefoner. Googles "Gemini Nano"-modell är inbäddad i de senaste Pixel-telefonerna och Samsungs senaste smartphone S24.
Apple har också avslöjat att de utvecklar AI-modeller för att köras på sin bästsäljande iPhone. Förra månaden släppte Silicon Valley-jätten OpenELM, en liten modell designad för att utföra textbaserade uppgifter.
Microsofts Boyd sa att de mindre modellerna kommer att leda till "intressanta applikationer, hela vägen ner till telefoner och bärbara datorer".
OpenAI-chefen Sam Altman sa i november att de även erbjuder AI-modeller i olika storlekar till kunder som "tjänar olika syften". "Det finns vissa saker som mindre modeller kommer att göra riktigt bra. Jag är entusiastisk över det", sa han.
Altman tillade dock att OpenAI fortfarande kommer att fokusera på att bygga större AI-modeller med skalbarhet, inklusive förmågan att resonera, planera och utföra uppgifter och i slutändan uppnå intelligens på mänsklig nivå.
Hoang Hai (enligt FT)
[annons_2]
Källa: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Kommentar (0)