Vietnam.vn - Nền tảng quảng bá Việt Nam

Das „Superintelligenz“-Modell hinter der OpenAI-Kontroverse

VTC NewsVTC News01/12/2023


Laut Quellen von Tech.co kursierte während der Kontroverse um die Entlassung von CEO Sam Altman und seine anschließende Rückkehr zu OpenAI unter anderem das Gerücht, dass ein Brief der Forscher des Unternehmens an den Vorstand gerichtet sei, in dem sie Bedenken äußerten, dass das sich entwickelnde KI-Superintelligenzmodell möglicherweise eine Bedrohung für die Menschheit darstelle.

(Abbildung zur Veranschaulichung)

(Abbildung zur Veranschaulichung)

Projekt Q*

Das intern als Project Q* (ausgesprochen Q-star) bekannte Modell wird als potenzieller Durchbruch im Streben von OpenAI nach allgemeiner künstlicher Intelligenz (AGI) angepriesen – einem hochgradig autonomen Zweig der Superintelligenz, der zu kumulativem Lernen fähig ist und den Menschen bei den meisten Aufgaben übertrifft.

Laut Quellen aus dem Umfeld der Angelegenheit könnte Q* einen großen Sprung nach vorn auf dem Gebiet der künstlichen Intelligenz darstellen, indem es die KI-Schlussfolgerungsfähigkeiten radikal verbessert und OpenAI einem großen Durchbruch in der AGI-Entwicklung näher bringt.

Im Gegensatz zu den aktuellen KI-Modellen, die sich auf die Generierung von Antworten auf der Grundlage vorab gelernter Informationen konzentrieren, ist AGI ein autonomes System, das "Vernunft" bei Entscheidungen anwenden kann, wodurch es die Fähigkeit erhält, Probleme auf menschlichem Niveau zu lösen.

Obwohl AGI noch nicht vollständig realisiert ist, glauben viele Experten, dass diese Technologie auch das Potenzial für kumulatives Lernen besitzt, eine weitere Eigenschaft, die es dem Menschen ermöglicht, seine Fähigkeiten zu verbessern.

Einigen Quellen zufolge konnte Q* – ein Projekt von OpenAI – die genannten Eigenschaften bei der Problemlösung unter Beweis stellen. Dank seiner enormen Rechenleistung übertraf Q* zudem Grundschüler und zeigte Denk- und kognitive Fähigkeiten, die denen aktueller KI-Technologien weit überlegen sind.

Es ist unklar, wie lange Q* bereits in Entwicklung ist und welche potenziellen Anwendungsbereiche es haben könnte, aber OpenAI informierte Mitarbeiter und Vorstandsmitglieder über das Projekt, bevor es zu der Kontroverse um die Personalangelegenheiten kam.

Ethische Bedenken

Während OpenAI-CEO Sam Altman zuversichtlich ist, dass die AGI-Technologie Innovationen vorantreiben wird, haben einige Forscher schnell auf die potenziellen Gefahren des Projekts hingewiesen.

In einem Brief an den Aufsichtsrat warnten die Forscher vor der potenziellen Gefahr, die dieser leistungsstarke Algorithmus für die Menschheit darstellt. Die konkreten ethischen Bedenken bezüglich KI, die in dem Brief geäußert wurden, wurden nicht offengelegt, doch die Warnungen reichten aus, um die Entscheidung des Aufsichtsrats, Altman zu entlassen, zu rechtfertigen.

Als Grund für Altmans Entlassung wurde zunächst dessen mangelnde Kommunikationsfähigkeit angegeben. Kurz darauf fand er eine neue Stelle bei Microsoft. Daraufhin drohten 700 der 770 OpenAI-Mitarbeiter, es ihm gleichzutun, sollte der CEO nicht wieder eingestellt werden.

Da das Unternehmen kurz vor dem Zusammenbruch stand, war der Verwaltungsrat von OpenAI gezwungen, Altman erneut an die Spitze zu berufen – was auch zu einer umfassenden Umstrukturierung des Führungsteams des Unternehmens führte und tiefe Spaltungen innerhalb der Führungsriege offenbarte.

Da Altman nun wieder im Amt ist und das Projekt Q* voraussichtlich erneut grünes Licht erhalten wird, wirft dies neue Fragen auf.

Wie realistisch ist das Projekt Q*?

Obwohl die turbulenten Zeiten bei OpenAI das Konzept der AGI in den Mittelpunkt rückten, ist dies nicht das erste Mal, dass Altman die Technologie erwähnt.

Bereits im September geriet der Silicon-Valley-Unternehmer in Schwierigkeiten, nachdem er AGI mit „einem durchschnittlichen Menschen, den man als Mitarbeiter einstellen könnte“, verglichen hatte. Er wiederholte daraufhin seine Aussagen aus dem Vorjahr, wonach diese KI „alles tun könne, was man mit einem externen Mitarbeiter tun könne“, einschließlich des Erlernens eines Arztberufs und eines guten Programmierers.

Der Vergleich von AGI mit der Intelligenz eines „durchschnittlichen Menschen“ ist zwar nicht neu, doch Altmans Verwendung dieser Formulierung wurde von KI-Ethikern und dem Cambridge-Universitätsprofessor Henry Shevlin als „widerlich“ bezeichnet, da die Bedenken hinsichtlich der Auswirkungen von KI auf die Arbeitsplatzsicherheit zunehmen.

Die potenziellen Durchbrüche im Bereich der künstlichen allgemeinen Intelligenz (AGI) sind auch für andere Forscher ein Warnsignal – die Technologie entwickelt sich schneller, als die Menschen ihre Auswirkungen vollständig verstehen können.

OpenAI ist überzeugt, dass die positiven Ergebnisse von AGI dieses riskante „Minenfeld“ lohnenswert machen. Da das Unternehmen diesen Weg jedoch weiterhin beschreitet, befürchten viele, dass Altman den kommerziellen Erfolg über das Wohl der Nutzer und der Gesellschaft stellt.

Phuong Anh (Quelle: Tech.co, The Guardian)



Quelle

Kommentar (0)

Hinterlasse einen Kommentar, um deine Gefühle zu teilen!

Gleiches Thema

Gleiche Kategorie

Nahaufnahme der Werkstatt, in der der LED-Stern für die Kathedrale Notre Dame hergestellt wird.
Besonders beeindruckend ist der 8 Meter hohe Weihnachtsstern, der die Notre-Dame-Kathedrale in Ho-Chi-Minh-Stadt erleuchtet.
Huynh Nhu schreibt bei den Südostasienspielen Geschichte: Ein Rekord, der nur sehr schwer zu brechen sein wird.
Die atemberaubende Kirche an der Highway 51 war zur Weihnachtszeit festlich beleuchtet und zog die Blicke aller Vorbeifahrenden auf sich.

Gleicher Autor

Erbe

Figur

Unternehmen

Die Bauern im Blumendorf Sa Dec sind damit beschäftigt, ihre Blumen für das Festival und Tet (Mondneujahr) 2026 vorzubereiten.

Aktuelles

Politisches System

Lokal

Produkt