Ez a keresőóriás nemrég nyilvánosságra hozott belső feljegyzéséből származó értékelés. Ebben a dokumentumban a Google vezetői mély aggodalmukat fejezték ki amiatt, hogy elveszíthetik a folyamatban lévő mesterséges intelligencia versenyt.
Egy Google-képviselő később megerősítette a dokumentum hitelességét, mondván, hogy ez csupán egy bennfentes véleménye a cégtől, de elismerte, hogy „nincsenek abban a helyzetben, hogy megnyerjék ezt a versenyt, és az OpenAI sem az”.
A keresőóriás úgy véli, hogy a nyílt forráskódú közösség veri a vezető mesterséges intelligencia fejlesztő cégeket, bár termékeik minőségben kissé előrébb vannak, „a különbség hihetetlenül gyorsan csökken”.
A tőke nagysága nem a legfontosabb tényező
A mesterséges intelligencia 2022 vége óta nagy port kavar a közvéleményben a ChatGPT elindításával, amely egy LLM-en (nagy nyelvi modelleken) alapuló chatbot, amelyet az OpenAI, a Microsofthoz szorosan kapcsolódó startup fejlesztett ki. A termék sikere arra ösztönözte a Google-t és számos más technológiai vállalatot, hogy beszálljanak az LLM versenybe.
Az LLM modelleket az internetről gyűjtött több billió szó alapján képezik ki, hogy emberszerű szövegeket vagy beszélgetéseket hozzanak létre. Ez a folyamat hónapokig tart és több tízmillió dollárba kerül, ami aggodalomra ad okot, hogy a mesterséges intelligenciát a „gazdag, tehetős” technológiai vállalatok fogják uralni.
A Google belső feljegyzése azonban azt sugallja, hogy ez a feltételezés téves. A nyílt forráskódú közösség kutatói ingyenes online forrásokat használnak, és a mai legnagyobb zárt modellekhez hasonló eredményeket érnek el.
Ennek megfelelően az LLM-ek „finomhangolhatók” egy alacsony szintű adaptációnak, vagy LoRa-nak nevezett technikával, amely lehetővé teszi egy meglévő LLM sokkal gyorsabb és olcsóbb optimalizálását egy adott feladatra, mint egy LLM nulláról történő betanítása.
Például márciusban kiszivárgott az internetre az LLaMa, a Facebook anyavállalata, a Meta által létrehozott modell. Bár kicsi és viszonylag „primitív” volt, mindössze 7 milliárd paraméterrel, szemben a Google legnagyobb LLM-jében található 540 milliárd paraméterrel, az LLaMa-t gyorsan finomították, hogy egyes feladatoknál a ChatGPT eredeti verziójához hasonló eredményeket produkáljon.
Ennek szeizmikus hatása lehet a mesterséges intelligencia fejlesztésének jövőjére, mivel „a képzés és tesztelés akadályai megváltoznak, a nagy kutatóközpont igényétől kezdve egészen odáig, hogy mindössze egyetlen emberre, egyetlen estére és egy csúcskategóriás laptopra van szükség”.
Az óriás Góliát és a pásztor Dávid közötti harc
Manapság egy LLM fokozat (LLM) akár 100 dollárért is finomítható néhány óra alatt. Rugalmas, összekapcsolt és alacsony költségű modelljével a „nyílt forráskódú mesterséges intelligencia jelentős előnyökkel rendelkezik”, amelyeket a nagyvállalatok, mint például a Google, nem tudnak lemásolni. A feljegyzés arra a következtetésre jut, hogy a Google vagy az OpenAI sebezhető ezekkel a nyílt forráskódú versenytársakkal szemben.
„Nem hiszem, hogy sok feladathoz szükségem lenne valami olyan erősre, mint a ChatGPT-4” – mondta Simon Willison programozó és technológiai elemző az NBC-nek. „A kérdés most az, hogy mennyire lehetnek kicsik a modellek, és mégis hasznosak? És ezt a lehetőséget a nyílt forráskódú közösség nagyon gyorsan vizsgálja .”
Ez teljesen hasonlít számos szakértő véleményéhez, miszerint a legerősebb pont egyben a leggyengébb is, ha megfelelően kihasználjuk és megfigyeljük, mint például az óriás Góliát történetében, akit a kis pásztorfiú, Dávid egyetlen parittyával legyőz.
Azonban a mesterséges intelligencia fejlesztése terén nem mindenki ért egyet ezzel az érveléssel. A helyzet az, hogy továbbra is léteznek fizetős, zárt szoftverek, mint például az Adobe Photoshop vagy a Microsoft Windows, és a mesterséges intelligencia területe ugyanazt a fejlődési utat követheti.
(Az Economist és a YahooFinance szerint)
[hirdetés_2]
Forrás
Hozzászólás (0)