Vietnam.vn - Nền tảng quảng bá Việt Nam

Das „Superintelligenz“-Modell hinter dem OpenAI-Skandal

VTC NewsVTC News01/12/2023


Laut Quellen von Tech.co kursierte während der Kontroverse um die Entlassung von CEO Sam Altman und seine anschließende Rückkehr zu OpenAI das Gerücht, dass Forscher des Unternehmens einen Brief an den Vorstand geschickt hätten, in dem sie Bedenken hinsichtlich des entwickelten KI-Superintelligenzmodells äußerten, das möglicherweise eine Bedrohung für die Menschheit darstellen könnte.

(Illustration)

(Illustration)

Projekt Q*

Das intern als Project Q* (ausgesprochen Q-star) bekannte Modell soll einen bedeutenden Durchbruch in OpenAIs Bestrebungen nach künstlicher allgemeiner Intelligenz (AGI) darstellen – einem hochgradig autonomen Zweig der Superintelligenz, der zu kumulativem Lernen fähig ist und den Menschen bei den meisten Aufgaben übertrifft.

Laut mit der Angelegenheit vertrauten Personen könnte Q* einen großen Sprung nach vorn in der künstlichen Intelligenz darstellen, indem es die Denkfähigkeit der KI radikal verbessert und OpenAI einem großen Durchbruch in der Entwicklung von AGI näher bringt.

Im Gegensatz zu den aktuellen KI-Modellen, die sich auf die Fähigkeit konzentrieren, auf der Grundlage zuvor gelernter Informationen Reaktionen zu generieren, ist AGI ein autonomes System, das „Vernunft“ bei Entscheidungen anwenden kann und dadurch Problemlösungsfähigkeiten auf menschlichem Niveau besitzt.

Auch wenn AGI noch nicht vollständig realisiert ist, glauben viele Experten, dass die Technologie auch die Fähigkeit zum kumulativen Lernen besitzen wird – eine weitere Eigenschaft, die dem Menschen die Möglichkeit gibt, seine Fähigkeiten zu verbessern.

Einigen Quellen zufolge konnte Q* – das Projekt von OpenAI – die oben genannten Eigenschaften bei der Problemlösung unter Beweis stellen. Darüber hinaus übertraf Q* dank seiner enormen Rechenleistung sogar Grundschüler und demonstrierte im Vergleich zu aktuellen KI-Technologien bemerkenswerte Denk- und kognitive Fähigkeiten.

Es ist unklar, wie lange Q* bereits in Entwicklung ist und welche Anwendungsbereiche es haben könnte, aber OpenAI informierte Mitarbeiter und Vorstandsmitglieder über das Projekt, bevor der Personalskandal bekannt wurde.

Ethische Bedenken

Während OpenAI-CEO Sam Altman zuversichtlich ist, dass die AGI-Technologie Innovationen vorantreiben wird, haben einige Forscher schnell auf die potenziellen Gefahren des Projekts hingewiesen.

In einem Brief an den Vorstand warnten die Forscher vor den potenziellen Gefahren dieses leistungsstarken Algorithmus für die Menschheit. Die konkreten ethischen Bedenken bezüglich KI, die in dem Brief geäußert wurden, wurden nicht offengelegt, doch die Warnungen reichten aus, um die Entscheidung des Vorstands, Altman zu entlassen, zu rechtfertigen.

Als Grund für Altmans Entlassung wurde zunächst dessen mangelhafte Kommunikation angegeben. Er fand kurz darauf eine neue Stelle bei Microsoft. Daraufhin drohten 700 der 770 OpenAI-Mitarbeiter mit der gleichen Vorgehensweise, sollte Altman nicht wieder eingestellt werden.

Da das Unternehmen vom Zusammenbruch bedroht war, sah sich der Vorstand von OpenAI gezwungen, Altman wieder an die Spitze zu setzen – was auch zu einer umfassenden Umstrukturierung des Führungsteams des Unternehmens führte und tiefe Spaltungen innerhalb der Führungsriege offenbarte.

Da Altman nun wieder im Amt ist und das Projekt Q* möglicherweise wieder grünes Licht erhält, wirft dies neue Fragen auf.

Wie realistisch ist das Projekt Q*?

Während die turbulenten Tage bei OpenAI das Konzept der AGI ins Rampenlicht rückten, ist dies nicht das erste Mal, dass Altman die Technologie erwähnt.

Der Silicon-Valley-Unternehmer geriet im September in Schwierigkeiten, nachdem er AGI mit „einem durchschnittlichen Menschen, den man als Mitarbeiter einstellen könnte“, verglichen hatte. Er knüpfte damit an seine Äußerungen aus dem letzten Jahr an, wonach KI „alles tun könne, was man mit einem externen Mitarbeiter tun könne“, einschließlich des Lernens, ein guter Arzt und Programmierer zu sein.

Der Vergleich von AGI mit der Intelligenz eines „durchschnittlichen Menschen“ ist zwar nicht neu, doch Altmans Verwendung dieser Formulierung wurde von KI-Ethikern und dem Cambridge-Universitätsprofessor Henry Shevlin als „abscheulich“ bezeichnet, da die Besorgnis über die Auswirkungen von KI auf die Arbeitsplatzsicherheit zunimmt.

Potenzielle Durchbrüche im Bereich der künstlichen künstlichen Intelligenz (AGI) lassen auch bei anderen Forschern die Alarmglocken schrillen – die Technologie wird schneller entwickelt, als die Menschen ihre Auswirkungen vollständig begreifen können.

OpenAI ist überzeugt, dass die positiven Ergebnisse von AGI das riskante „Minenfeld“ rechtfertigen. Doch während das Unternehmen diesen Weg weiter beschreitet, befürchten viele, dass Altman dem kommerziellen Erfolg Vorrang vor den Interessen der Nutzer und der Gesellschaft einräumt.

Phuong Anh (Quelle: Tech.co, The Guardian)



Quelle

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Ho-Chi-Minh-Stadt zieht Investitionen von ausländischen Direktinvestitionsunternehmen in neue Geschäftsmöglichkeiten an
Historische Überschwemmungen in Hoi An, aufgenommen aus einem Militärflugzeug des Verteidigungsministeriums.
Das „große Hochwasser“ des Thu Bon Flusses übertraf das historische Hochwasser von 1964 um 0,14 m.
Dong Van Stone Plateau – ein seltenes „lebendes geologisches Museum“ auf der Welt

Gleicher Autor

Erbe

Figur

Geschäft

Bewundern Sie die „Ha Long Bay vom Land aus“ und gehören Sie zu den beliebtesten Reisezielen der Welt

Aktuelle Veranstaltungen

Politisches System

Lokal

Produkt