Vietnam.vn - Nền tảng quảng bá Việt Nam

Das „Superintelligenz“-Modell hinter dem OpenAI-Skandal

VTC NewsVTC News01/12/2023

[Anzeige_1]

Quellen von Tech.co zufolge gab es während der Kontroverse um die Entlassung von CEO Sam Altman und dessen anschließende Rückkehr zu OpenAI Gerüchte über einen Brief der Forscher des Unternehmens an den Vorstand, in dem sie ihre Bedenken hinsichtlich des in Entwicklung befindlichen KI-Superintelligenzmodells zum Ausdruck brachten, das möglicherweise eine Bedrohung für die Menschheit darstellen könnte.

(Illustration)

(Illustration)

Projekt Q*

Das Modell, das intern als Projekt Q* (ausgesprochen „Q-Stern“) bekannt ist, soll einen großen Durchbruch in OpenAIs Streben nach künstlicher allgemeiner Intelligenz (AGI) darstellen – einem hochautonomen Zweig der Superintelligenz, der zu kumulativem Lernen fähig ist und Menschen bei den meisten Aufgaben übertrifft.

Q* könnte einen großen Sprung nach vorne in der künstlichen Intelligenz darstellen, indem es die Denkfähigkeiten der KI radikal verbessert und OpenAI einem großen Durchbruch in der Entwicklung der AGI näher bringt, sagen mit der Angelegenheit vertraute Personen.

Im Gegensatz zu aktuellen KI-Modellen, die sich auf die Fähigkeit konzentrieren, Antworten auf der Grundlage zuvor erlernter Informationen zu generieren, handelt es sich bei AGI um ein autonomes System, das Entscheidungen „vernünftig“ treffen kann und so über Problemlösungsfähigkeiten auf menschlichem Niveau verfügt.

Obwohl die künstliche Intelligenz (AGI) noch nicht vollständig realisiert ist, glauben viele Experten, dass die Technologie auch über die Fähigkeit zum kumulativen Lernen verfügen wird, eine weitere Eigenschaft, die es dem Menschen ermöglicht, seine Fähigkeiten zu verbessern.

Einige Quellen behaupten, dass das Projekt Q* – OpenAI die oben genannten Eigenschaften bei der Problemlösung demonstrieren konnte. Darüber hinaus konnte Q* dank der enormen Rechenleistung des Modells Grundschüler übertreffen und über Denk- und kognitive Fähigkeiten verfügen, die die Möglichkeiten der aktuellen KI-Technologie deutlich übertreffen.

Es ist unklar, wie lange Q* bereits in der Entwicklung ist und welche Anwendungsmöglichkeiten es haben könnte, aber OpenAI hat Mitarbeiter und Vorstandsmitglieder vor dem Ausbruch des Personalskandals über das Projekt informiert.

Ethische Bedenken

Während Sam Altman, CEO von OpenAI, davon überzeugt ist, dass die AGI-Technologie Innovationen vorantreiben wird, weisen einige Forscher schnell auf die potenziellen Gefahren des Projekts hin.

In einem Brief an den Vorstand warnten die Forscher vor den potenziellen Gefahren dieses mächtigen Algorithmus für die Menschheit. Die konkreten ethischen Bedenken gegenüber KI, die in dem Brief dargelegt wurden, wurden nicht offengelegt, doch die Warnungen reichten aus, um die Entscheidung des Vorstands zu rechtfertigen, Altman zu entlassen.

Als Grund für Altmans Entlassung wurde zunächst „schlechte Kommunikation“ des CEO angegeben. Er fand bald darauf eine neue Stelle bei Microsoft. Daraufhin drohten 700 der 770 OpenAI-Mitarbeiter, dasselbe zu tun, falls der CEO nicht wieder eingestellt würde.

Da das Unternehmen vom Zusammenbruch bedroht war, war der Vorstand von OpenAI gezwungen, Altman wieder in die Führungsposition zu berufen. Dies führte auch zu einer umfassenden Umstrukturierung des Führungsteams des Unternehmens und machte tiefe Meinungsverschiedenheiten innerhalb der Führung deutlich.

Jetzt, da Altman wieder im Amt ist und das Projekt Q* wahrscheinlich wieder grünes Licht bekommt, wirft dies neue Fragen auf.

Wie realistisch ist Projekt Q*?

Während die turbulenten Tage bei OpenAI das Konzept der AGI ins Rampenlicht gerückt haben, ist dies nicht das erste Mal, dass Altman die Technologie erwähnt.

Der Unternehmer aus dem Silicon Valley geriet im September in Schwierigkeiten, nachdem er AGI mit „einem durchschnittlichen Menschen, den man als Mitarbeiter einstellen könnte“ verglich. Damit bekräftigte er seine Bemerkungen aus dem letzten Jahr, in denen er behauptete, dass KI „alles tun könne, was man mit einem entfernten Mitarbeiter tun könnte“, darunter auch das Erlernen der Arbeit als Arzt und guter Programmierer.

Obwohl der Vergleich von AGI mit der Intelligenz eines „durchschnittlichen Menschen“ nichts Neues ist, wurde Altmans Verwendung dieses Ausdrucks vom KI-Ethiker und Professor der Universität Cambridge Henry Shevlin als „abscheulich“ empfunden, da die Bedenken hinsichtlich der Auswirkungen von KI auf die Arbeitsplatzsicherheit zunehmen.

Mögliche Durchbrüche in der AGI sind auch für andere Forscher Anlass zur Sorge: Die Technologie entwickelt sich schneller, als der Mensch ihre Auswirkungen vollständig erfassen kann.

OpenAI ist überzeugt, dass die positiven Ergebnisse der künstlichen Intelligenz es wert sind, sich auf dieses riskante „Minenfeld“ einzulassen. Doch während das Unternehmen diesen Weg weiter verfolgt, befürchten viele, dass Altman den kommerziellen Erfolg über die Interessen der Nutzer und der Gesellschaft stellt.

Phuong Anh (Quelle: Tech.co, The Guardian)


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data
Beobachten Sie Hubschrauberübungen am Himmel von Hanoi zur Vorbereitung auf den Nationalfeiertag am 2. September
U23 Vietnam holt strahlend den Pokal der Südostasiatischen U23-Meisterschaft nach Hause
Die nördlichen Inseln sind wie „rohe Edelsteine“, billige Meeresfrüchte, 10 Minuten mit dem Boot vom Festland entfernt
Die mächtige Formation von 5 SU-30MK2-Kampfflugzeugen bereitet sich auf die A80-Zeremonie vor
S-300PMU1-Raketen im Kampfeinsatz zum Schutz des Himmels über Hanoi
Die Lotusblütezeit lockt Touristen in die majestätischen Berge und Flüsse von Ninh Binh
Cu Lao Mai Nha: Wo Wildheit, Majestät und Frieden miteinander verschmelzen
Hanoi ist seltsam, bevor Sturm Wipha Land erreicht
Verloren in der wilden Welt im Vogelgarten in Ninh Binh
Die Terrassenfelder von Pu Luong sind in der Regenzeit atemberaubend schön

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt