AI-eksperten forlot OpenAI, selskapet han var med på å grunnlegge, tidligere i år for å starte sitt eget AI-laboratorium kalt Safe Superintelligence Inc.

«Forberedende trening slik vi kjenner den vil opphøre å eksistere», sa Sutskever på en konferanse om nevral informasjonsbehandling.

Begrepet «forhåndstrening» refererer til den tidlige fasen i utviklingen av AI-modeller, når en stor språkmodell lærer mønstre fra store mengder umerkede data, ofte tekst fra internett, bøker og andre kilder.

Uttømming av dataressurser

Sutskever sa at selv om han mener at nåværende data fortsatt kan akselerere AI-utviklingen, går bransjen tom for nye ressurser til å trene modeller.

Dette, sier han, vil etter hvert føre til en endring i måten AI-modeller trenes opp i dag.

8da2491217a6b424c37773100bec59ff.jpeg
AI-modeller vil finne ut hvordan de skal trene seg selv basert på begrensede mengder data. Foto: Yahoo Tech

Dette er også situasjonen som har skjedd og skjer med fossile ressurser, når oljefelt er en begrenset ressurs, eller som Internett bare inneholder en begrenset mengde menneskeskapt innhold.

«Vi har nådd toppen av data, og det vil ikke være der i fremtiden», sa Sutskever. «Vi må jobbe med dataene som er tilgjengelige, med en aktuell internettkilde.»

Sutskever spår at neste generasjons modeller vil være «virkelig agentlignende». «Agent» er et populært begrep innen kunstig intelligens, generelt forstått som et autonomt kunstig intelligens-system som utfører oppgaver, tar beslutninger og samhandler med programvare uavhengig.

I tillegg til å være «agentlignende», sa han at fremtidige AI-systemer vil være i stand til å resonnere. I motsetning til dagens AI, som primært gjenkjenner mønstre basert på hva modellen har lært tidligere, vil fremtidige AI-systemer være i stand til å løse problemer trinn for trinn på en måte som er nærmere tenkning. «Jo mer resonnering, desto mindre forutsigbart blir systemet», sa Sutskever.

AI kan lage sin egen måte å trene seg selv på

Eksperten sammenlignet også utviklingen av AI-systemer med evolusjonsbiologi, og viste til forskning som viser forholdet mellom hjerne- og kroppsstørrelse hos dyr.

For eksempel, mens de fleste pattedyr følger et visst proporsjonalt mønster, har mennesker markant forskjellige hjerne- og kroppsproporsjoner.

Og på et tidspunkt, etter hvert som evolusjonen finner nye hastigheter for hjernens vekst hos våre forfedre, kan AI også finne nye måter å skalere utover den nåværende måten å trene modeller på.

(Ifølge TheVerge og Yahoo Tech)

Da Elon Musk avslørte de «skyhøye» lønningene til xAI og OpenAI, anklaget han OpenAI for å betale ansatte for mye og kalte dette konkurransehemmende. Milliardærens oppstartsbedrift xAI betaler imidlertid også mye høyere enn gjennomsnittet.