Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Het 'superintelligentie'-model achter het OpenAI-schandaal

VTC NewsVTC News01/12/2023


Volgens bronnen bij Tech.co ging het gerucht, terwijl de controverse over het ontslag van CEO Sam Altman en zijn terugkeer naar OpenAI voortduurde, dat onderzoekers van het bedrijf een brief zouden hebben gestuurd aan de raad van bestuur. Daarin uitten ze hun zorgen over het in ontwikkeling zijnde AI-superintelligentiemodel dat mogelijk een bedreiging voor de mensheid zou kunnen vormen.

(Illustratie)

(Illustratie)

Project Q*

Het model, intern bekend als Project Q* (uitgesproken als Q-ster), zou een grote doorbraak betekenen in OpenAI's streven naar algemene kunstmatige intelligentie (AGI) - een zeer autonome tak van superintelligentie die in staat is tot cumulatief leren en bij de meeste taken beter presteert dan mensen.

Volgens ingewijden zou Q* een grote stap voorwaarts kunnen betekenen op het gebied van kunstmatige intelligentie door de redeneercapaciteiten van AI radicaal te verbeteren en OpenAI dichter bij een grote doorbraak in de ontwikkeling van AGI te brengen.

In tegenstelling tot huidige AI-modellen, die zich richten op het vermogen om reacties te genereren op basis van eerder geleerde informatie, is AGI een autonoom systeem dat 'redenering' kan toepassen op beslissingen, waardoor het probleemoplossende capaciteiten op menselijk niveau krijgt.

Hoewel AGI nog niet volledig is ontwikkeld, geloven veel deskundigen dat de technologie ook de mogelijkheid zal hebben om cumulatief te leren, een andere eigenschap waarmee mensen hun vaardigheden kunnen verbeteren.

Sommige bronnen beweren dat het project van Q* - OpenAI de bovengenoemde eigenschappen heeft kunnen aantonen bij het oplossen van problemen. Bovendien heeft Q*, dankzij de enorme rekenkracht van het model, basisschoolleerlingen overtroffen en redeneervaardigheden en cognitieve vaardigheden laten zien die de mogelijkheden van de huidige AI-technologie aanzienlijk overstijgen.

Het is onduidelijk hoe lang Q* al in ontwikkeling is en wat de mogelijke toepassingen zijn, maar OpenAI informeerde medewerkers en bestuursleden over het project voordat het personeelsschandaal uitbrak.

Ethische zorgen

Hoewel Sam Altman, CEO van OpenAI, ervan overtuigd is dat AGI-technologie innovatie zal stimuleren, wijzen sommige onderzoekers snel op de potentiële gevaren van het project.

In een brief aan de raad van bestuur waarschuwden de onderzoekers voor de potentiële gevaren van dit krachtige algoritme voor de mensheid. De specifieke ethische bezwaren tegen AI die in de brief werden genoemd, werden niet bekendgemaakt, maar de waarschuwingen waren voldoende om het besluit van de raad van bestuur om Altman te ontslaan te rechtvaardigen.

Ondertussen was de aanvankelijke reden voor het ontslag van Altman dat de CEO "slecht communiceerde". Hij vond al snel een nieuwe functie bij Microsoft. Deze actie bracht 700 van de 770 medewerkers van OpenAI ertoe te dreigen hetzelfde te doen als de CEO niet werd hersteld.

Omdat het bedrijf op instorten stond, zag de raad van bestuur van OpenAI zich genoodzaakt Altman weer op de hoogste functie te benoemen. Dit leidde ook tot een grondige revisie van het directieteam van het bedrijf en bracht diepe verdeeldheid binnen de leiding aan het licht.

Nu Altman weer aan de macht is en Project Q* waarschijnlijk weer groen licht krijgt, roept dat nieuwe vragen op.

Hoe realistisch is Project Q*?

Hoewel de roerige dagen bij OpenAI het concept van AGI in de schijnwerpers hebben gezet, is dit niet de eerste keer dat Altman de technologie noemt.

De ondernemer uit Silicon Valley kwam in september in de problemen nadat hij AGI vergeleek met "een gemiddelde mens die je als collega zou kunnen aannemen". Hij ging in op de opmerkingen die hij vorig jaar had gemaakt over hoe AI "alles zou kunnen doen wat je met een externe collega zou kunnen", inclusief leren hoe je een dokter en een goede programmeur kunt worden.

Hoewel het vergelijken van AGI met de intelligentie van een 'gemiddelde mens' niets nieuws is, werd Altmans gebruik van de term door AI-ethicus en professor aan de Universiteit van Cambridge Henry Shevlin als 'afschuwelijk' bestempeld, nu de zorgen over de impact van AI op de baanzekerheid toenemen.

Mogelijke doorbraken op het gebied van AGI doen ook bij andere onderzoekers de alarmbellen rinkelen: de technologie wordt sneller ontwikkeld dan mensen de impact ervan volledig kunnen bevatten.

OpenAI is van mening dat de positieve resultaten van AGI het risicovolle "mijnenveld" de moeite waard maken. Maar nu het bedrijf deze richting blijft inslaan, maken velen zich zorgen dat Altman commercieel succes belangrijker vindt dan de belangen van gebruikers en de maatschappij.

Phuong Anh (Bron: Tech.co, The Guardian)



Bron

Reactie (0)

No data
No data

In hetzelfde onderwerp

In dezelfde categorie

Y Ty schittert met de gouden kleur van rijpe rijst van het seizoen
Hang Ma Old Street "verandert van kleding" ter ere van het Midherfstfestival
De paarse Suoi Bon-simheuvel bloeit tussen de drijvende zee van wolken in Son La
Toeristen trekken massaal naar Y Ty, gelegen te midden van de mooiste terrasvormige velden in het noordwesten

Van dezelfde auteur

Erfenis

Figuur

Bedrijf

No videos available

Nieuws

Politiek systeem

Lokaal

Product