Im Mai reichte CEO Altman beim US-Senat in Washington, D.C. eine Petition mit einem dringenden Appell an die Gesetzgeber ein: Wir müssen nicht nur die Überlegenheit der KI ausnutzen, sondern auch bald strenge Vorschriften schaffen, um das Risiko zu minimieren, dass sie die Menschheit überwältigt.
ChatGPT-Schnittstelle auf der Website. Foto: Shutterstock
„Tiefgreifende Risiken für Gesellschaft und Menschheit“
Mit der Einführung von OpenAIs ChatGPT Ende letzten Jahres wurde der 38-jährige Altman über Nacht zum Schöpfer einer neuen Generation von KI-Tools, die auf Anfrage der Benutzer Bilder und Texte generieren können – eine Technologie, die als generative KI bekannt ist.
Nicht lange nach seiner Veröffentlichung wurde ChatGPT zu einem allgemein bekannten Namen. Führungskräfte haben es zum Verfassen von E-Mails verwendet, Leute haben Websites ohne Programmierkenntnisse erstellt und es hat Prüfungen an juristischen und wirtschaftswissenschaftlichen Fakultäten bestanden. Sie hat das Potenzial, nahezu jede Branche zu revolutionieren, darunter Bildung, Finanzen, Landwirtschaft , Medien, Journalismus und Gesundheit, von der Chirurgie bis zur Entwicklung medizinischer Impfstoffe.
Doch genau diese Instrumente haben auch zu Bedenken in allen möglichen Bereichen geführt, von Betrug in der Schule und Arbeitsplatzverlusten bis hin zu einer Bedrohung der Existenz der Menschheit.
Der Aufstieg der KI beispielsweise veranlasst Ökonomen zu Warnungen hinsichtlich der Auswirkungen auf den Arbeitsmarkt. Nach Schätzungen von Goldman Sachs könnten mithilfe von KI letztendlich bis zu 300 Millionen Vollzeitstellen weltweit automatisiert werden. Einem im April veröffentlichten Bericht des Weltwirtschaftsforums zufolge könnten allein in den nächsten fünf Jahren rund 14 Millionen Arbeitsplätze verloren gehen.
Darüber hinaus sagte Altman in einer Aussage vor dem US-Kongress , dass die Möglichkeit, KI zur Manipulation von Wählern und zur gezielten Desinformation einzusetzen, einer der „Bereiche sei, die mir die größten Sorgen bereiten“.
Zwei Wochen nach der Anhörung unterzeichnete Altman gemeinsam mit Hunderten anderen führenden KI-Wissenschaftlern, Forschern und Wirtschaftsführern einen Brief, in dem es heißt: „Die Minimierung des Risikos des Aussterbens durch KI muss neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“
Über die Warnung wurde in der Presse und den Medien ausführlich berichtet. Und immer mehr Menschen argumentieren, dass solche apokalyptischen Szenarien ernster genommen werden müssen.
Doch im Silicon Valley herrscht ein großes Paradoxon: Die CEOs einiger der größten Technologieunternehmen erzählen der Öffentlichkeit, dass künstliche Intelligenz das Potenzial habe, die Menschheit auszurotten, und gleichzeitig investieren sie in die Technologie und stellen sie Milliarden von Nutzern zur Verfügung.
Altman zeigt sich schon seit langem besorgt über die Risiken, die die künstliche Intelligenz mit sich bringt, und hat versprochen, verantwortungsvoll vorzugehen. Er gehört zu einer Gruppe von Tech-CEOs, die sich mit führenden Persönlichkeiten des Weißen Hauses, darunter Präsident Joe Biden und Vizepräsidentin Kamala Harris, treffen, um die Bedeutung der Entwicklung ethischer und verantwortungsvoller KI zu betonen.
Dies reicht jedoch nicht aus. Andere möchten, dass Altman und OpenAI vorsichtiger vorgehen. Sogar Elon Musk, der an der Gründung von OpenAI beteiligt war, bevor er die Gruppe verließ, und Dutzende von Technologieführern, Professoren und Forschern haben Labore für künstliche Intelligenz wie OpenAI aufgefordert, das Training ihrer leistungsstärksten KI-Systeme für mindestens sechs Monate einzustellen, und verwiesen auf „erhebliche Risiken für die Gesellschaft und die Menschheit“.
Altman sagte, er stimme Teilen des Briefes zu, etwa der Aussage, dass „die Sicherheitsniveaus erhöht werden müssen“, doch eine Pause sei nicht der „optimale Weg“, um die Herausforderungen zu bewältigen.
OpenAI gibt weiterhin Vollgas. Zuletzt verhandelten OpenAI und der iPhone-Designer Jony Ive Berichten zufolge über die Beschaffung von 1 Milliarde US-Dollar vom japanischen Mischkonzern SoftBank für ein KI-Gerät als Smartphone-Ersatz.
Kann man Sam vertrauen?
Als er OpenAI gründete, sagte Altman 2015 gegenüber CNN, er wolle den Weg der KI mitgestalten, anstatt sich über mögliche Schäden Sorgen zu machen und nichts zu tun. „Ich schlafe besser, weil ich weiß, dass ich jetzt Einfluss nehmen kann“, erklärte er.
Dennoch äußerte Altman Bedenken hinsichtlich der Technologie. „Ich bin auf das Überleben vorbereitet“, sagte er 2016 in einem Artikel des New Yorker und verwies auf eine Reihe möglicher Katastrophenszenarien, darunter „einen Angriff der KI auf uns“.
OpenAI-CEO Sam Altman spricht am 16. Mai vor dem US-Senat in Washington, USA. Foto: AP
„Aber ich habe Waffen, Gold, Antibiotika, Batterien, Wasser, Gasmasken … und ein riesiges Stück Land in Big Sur, zu dem ich fliegen kann“, erklärte er und deutete damit an, dass er persönlich im Falle einer Katastrophe immer noch überleben könnte. Das ist eindeutig eine egoistische Aussage.
In der vielleicht bisher umfassendsten Initiative kündigte Präsident Biden Anfang dieser Woche eine Durchführungsverordnung an, die Entwickler leistungsstarker KI-Systeme dazu verpflichtet, die Ergebnisse ihrer Sicherheitstests den Bundesbehörden mitzuteilen, bevor sie diese der Öffentlichkeit zugänglich machen, um festzustellen, ob sie ein Risiko für die nationale Sicherheit, die Wirtschaft oder die Gesundheit darstellen.
Nach der Anhörung im US-Senat äußerte Emily Bender, Professorin an der University of Washington und Leiterin des Labors für Computerlinguistik, ihre Bedenken hinsichtlich der Zukunft der KI, selbst wenn diese streng reguliert würde. „Wenn sie wirklich glauben, dass dies zum Aussterben der Menschheit führen könnte, warum hören sie dann nicht auf?“ erklärte sie.
Eine gute Politikgestaltung müsse sich an vielen Perspektiven und Interessen orientieren, nicht nur an einer oder wenigen, und vom öffentlichen Interesse geprägt sein, sagt Margaret O'Mara, Technologiehistorikerin und Professorin an der University of Washington. „Die Herausforderung bei KI besteht darin, dass nur sehr wenige Menschen und Unternehmen wirklich verstehen, wie sie funktioniert und was es bedeutet, sie einzusetzen – ähnlich wie bei der Atombombe“, sagt O’Mara.
Daher wäre es für die Welt riskant, darauf zu zählen, dass Altman im besten Interesse der Menschheit handelt, und zwar mit einer Technologie, die er selbst als Massenvernichtungswaffe einstuft und für die er einen Schutzraum für den Katastrophenfall vorbereitet hat. Außerdem ist er schließlich nur ein Mensch und kein Superheld oder Retter!
Hoang Hai (laut CNN, FT, Reuters)
[Anzeige_2]
Quelle
Kommentar (0)