In einem Interview mit The Guardian sagte der Autor des Buches „Sapiens: Eine kurze Geschichte der Menschheit“, dass die Probleme, die KI-Modelle mit sich bringen, im Gegensatz zu Atomwaffen nicht auf ein großes Szenario beschränkt seien.
Im Zusammenhang mit KI gibt es unzählige Gefahrenszenarien, von denen jedes das Potenzial hat, sich zu vereinen und eine existenzielle Bedrohung für die menschliche Zivilisation darzustellen.
Die multilaterale Erklärung beim Global AI Safety Summit im britischen Bletchley Park sei ein „sehr wichtiger Schritt nach vorn“ gewesen, weil führende Regierungen zusammengekommen seien, um ihre Bedenken hinsichtlich der Technologie auszudrücken und etwas dagegen zu unternehmen, sagte Harari.
„Ohne globale Zusammenarbeit wird es äußerst schwierig, wenn nicht gar unmöglich sein, das gefährlichste Potenzial der KI einzudämmen“, sagte er.
Der Gipfel endete mit einer Vereinbarung zwischen zehn Regierungen und großen KI-Unternehmen, darunter dem ChatGPT-Entwickler OpenAI und Google, bei der Erprobung fortschrittlicher KI-Modelle vor und nach ihrer Veröffentlichung zusammenzuarbeiten.
Die Autoren von Sapiens argumentieren, dass ein Problem beim Testen der Sicherheit von Modellen darin besteht, jedes Problem vorhersehen zu müssen, das sie verursachen könnten.
KI unterscheidet sich von allen bisherigen Technologien in der Menschheitsgeschichte, da sie die erste Technologie ist, die Entscheidungen treffen, neue Ideen generieren und selbstständig lernen und sich weiterentwickeln kann.
Per Definition ist es für den Menschen – sogar für den „Vater“ der KI – äußerst schwierig, alle potenziellen Gefahren und Probleme vorherzusagen.
Regierungen weisen darauf hin, dass KI-Systeme bei der Herstellung von Biowaffen eine Rolle spielen könnten, doch es gibt auch andere Szenarien, die in Betracht gezogen werden könnten.
Herr Harari wies darauf hin, dass der Finanzbereich ein ideales Feld für KI-Systeme sei, da allein Daten und KI schwere Krisen verursachen könnten.
„Was wäre, wenn KI nicht nur mehr Kontrolle über das weltweite Finanzsystem erhält, sondern auch beginnt, neue Finanzinstrumente zu entwickeln, die nur KI verstehen kann, Menschen jedoch nicht?“ fragte Harari.
Die Finanzkrise der Jahre 2007 und 2008 sei durch Schuldtitel wie Collateralized Debt Obligations (CDOs) verursacht worden, die kaum verstanden und daher nicht umfassend reguliert worden seien, fügte der Historiker hinzu.
„KI hat das Potenzial, Finanzinstrumente zu schaffen, die komplexer sind als CDOs. Stellen Sie sich nur ein Finanzsystem vor, das kein Mensch verstehen und daher nicht regulieren kann“, sagte er. „Und dann gibt es eine Finanzkrise, bei der niemand versteht, was vor sich geht.“
Im vergangenen Monat äußerte die britische Regierung Bedenken hinsichtlich eines fortschrittlichen KI-Modells, das durch die Kontrolle und Manipulation von Finanzsystemen eine existenzielle Bedrohung darstellen könnte.
Doch Harari glaubt, dass eine durch KI ausgelöste Finanzkrise die menschliche Zivilisation nicht zerstören würde, „zumindest nicht direkt“.
„Indirekt könnte dies passieren, wenn es Krieg oder Konflikte auslöst. Es ist ein katastrophales Risiko – wirtschaftlich, sozial undpolitisch “, fügte er hinzu.
Der israelische Autor unterstützt die Forderung, die Entwicklung fortgeschrittener KI für sechs Monate zu stoppen und KI-Unternehmen für die Schäden zur Verantwortung zu ziehen, die ihre Produkte verursachen. Er sagte, der Fokus dürfe nicht auf spezifischen Regulierungen und Gesetzen liegen, sondern auf Regulierungsbehörden mit Technologiekenntnissen, die schnell reagieren können, wenn es zu neuen Durchbrüchen kommt.
„Wir müssen so schnell wie möglich starke Regulierungsinstitutionen schaffen, die in der Lage sind, Gefahren zu erkennen und darauf zu reagieren, wenn sie auftreten. Dabei müssen wir uns darüber im Klaren sein, dass wir nicht alle Gefahren und Probleme im Voraus vorhersagen können.“
„Dies sollte die Hauptaufgabe sein und nicht das Verfassen einer sehr langen und komplizierten Verordnung, die möglicherweise schon veraltet ist, wenn sie vom Kongress verabschiedet wird“, sagte er.
Forschungsinstitute zur KI-Sicherheit sollten Experten einstellen, die die potenziellen Auswirkungen der KI auf die Finanzwelt verstehen, sagte Harari.
Letzten Monat kündigte der britische Finanzminister Rishi Sunak die Gründung eines britischen Instituts für KI-Sicherheit an. Einige Tage später kündigte das Weiße Haus Pläne zur Gründung einer ähnlichen Agentur an. Von beiden wird erwartet, dass sie beim Testen fortschrittlicher KI-Modelle eine Schlüsselrolle spielen.
In seiner Rede auf dem Gipfel sagte Herr Sunak, Großbritannien müsse die Fähigkeiten fortschrittlicher KI-Modelle verstehen, bevor es Gesetze zu deren Umgang einführen könne.
(Laut The Guardian)
Die KI-Anwendung GraphCast prognostiziert die genaueste 10-Tage-Wettervorhersage der Welt
Das DeepMind-Labor von Google in Großbritannien hat das GraphCast-System entwickelt, eine Anwendung auf Basis künstlicher Intelligenz (KI), die die weltweit genaueste 10-Tage-Wettervorhersage liefern kann.
Die Synergie von KI und Cloud Computing
Die Kombination aus künstlicher Intelligenz (KI) und Cloud Computing ist ein unaufhaltsamer Trend, der die globalen Branchen umgestaltet.
[Anzeige_2]
Quelle
Kommentar (0)