Vietnam.vn - Nền tảng quảng bá Việt Nam

Die Aussicht, dass Menschen die Kontrolle verlieren, wenn KI-Chatbots eine Verbindung zum Internet herstellen

VietNamNetVietNamNet16/04/2023

[Anzeige_1]

Nachdem Andrew White Zugriff auf GPT-4, das künstliche Intelligenzsystem hinter dem beliebten ChatGPT, erhalten hatte, bat er die KI, einen völlig neuen neuronalen Agenten zu entwickeln.

Der Professor für Chemieingenieurwesen an der University of Rochester gehörte zu den 50 Akademikern und Experten, die letztes Jahr von OpenAI, dem von Microsoft unterstützten Unternehmen hinter GPT-4, angeheuert wurden, um das System zu testen. In den nächsten sechs Monaten wird das Testteam (das „Red Team“) das neue Modell qualitativ testen und hinterfragen, mit dem Ziel, es zu „knacken“.

Team zur Handhabung von „giftigen“ Substanzen

White erklärte der Financial Times (FT), er habe GPT-4 verwendet, um eine Verbindung vorzuschlagen, die als chemische Waffe eingesetzt werden könnte, und das Modell mit neuen Informationsquellen wie wissenschaftlichen Arbeiten und Verzeichnissen von Chemieherstellern gefüttert. Der Chatbot habe daraufhin sogar einen Ort gefunden, an dem die benötigte Verbindung hergestellt werden könne.

„Ich denke, diese Technologie wird den Menschen ein Werkzeug an die Hand geben, chemische Prozesse schneller und präziser durchzuführen“, sagte White. „Es besteht jedoch auch ein erhebliches Risiko, dass manche Menschen versuchen könnten, gefährliche Substanzen herzustellen.“

Die Financial Times sprach mit mehr als einem Dutzend Mitgliedern des GPT-4 Red Teams. Sie sind eine Mischung aus Angestellten: Akademikern, Lehrern, Anwälten, Risikoanalysten und Sicherheitsforschern und leben überwiegend in den USA und Europa.

Die alarmierenden Erkenntnisse des „Red Teams“ ermöglichten es OpenAI, das Auftreten solcher Ergebnisse umgehend zu verhindern, als die Technologie im vergangenen Monat einer größeren Öffentlichkeit zugänglich gemacht wurde.

Das Testteam soll allgemeine Bedenken hinsichtlich des Einsatzes leistungsstarker KI-Systeme in der Gesellschaft ausräumen. Die Aufgabe des Teams besteht darin, kritische oder gefährliche Fragen zu stellen, um zu testen, ob das Tool auf menschliche Anfragen mit detaillierten und präzisen Antworten reagieren kann.

OpenAI wollte das Modell auf Probleme wie Toxizität, Voreingenommenheit und sprachliche Voreingenommenheit untersuchen. Daher prüfte das Red Team, ob Unwahrheiten, Sprachmanipulation und gefährliche wissenschaftliche Erkenntnisse enthalten sind. Sie untersuchten außerdem, wie diese Erkenntnisse Plagiate, illegale Aktivitäten wie Finanzkriminalität und Cyberangriffe begünstigen und die nationale Sicherheit und die Kommunikation auf dem Schlachtfeld gefährden könnten.

Die Ergebnisse des „Red Teams“ wurden an OpenAI zurückgemeldet. OpenAI nutzte sie, um GPT-4 zu reduzieren und neu zu trainieren, bevor es der breiten Öffentlichkeit zugänglich gemacht wurde. Jeder Experte verbrachte über mehrere Monate hinweg zwischen 10 und 40 Stunden mit dem Testen des Modells. Die meisten Interviewpartner erhielten für ihre Arbeit rund 100 Dollar pro Stunde.

FT -Quellen äußerten gemeinsame Bedenken hinsichtlich der schnellen Entwicklung von Sprachmodellen und insbesondere hinsichtlich der Risiken, die mit ihrer Anbindung an externe Wissensquellen über Plug-ins verbunden sind.

„Im Moment ist das System eingefroren, das heißt, es kann nicht mehr lernen oder hat kein Gedächtnis“, sagte José Hernández-Orallo, Mitglied des GPT-4 „Red Teams“ und Professor am Valencianischen Institut für Künstliche Intelligenzforschung. „Aber was wäre, wenn wir ihm Zugang zum Internet geben würden? Es könnte ein sehr leistungsfähiges System sein, das mit der Welt verbunden ist.“

Das Risiko wächst täglich

OpenAI sagt, dass das Unternehmen Sicherheit sehr ernst nimmt, die Plug-ins vor der Veröffentlichung getestet hat und GPT-4 regelmäßig aktualisieren wird, da immer mehr Menschen es verwenden.

Werden KI-Systeme, die zum „Selbstlernen“ an das Internet angeschlossen sind, dazu führen, dass die Menschen die Kontrolle über die Welt verlieren?

Roya Pakzad, eine Forscherin für Technologie und Menschenrechte , verwendete Aufforderungen auf Englisch und Farsi, um Antwortmuster hinsichtlich Geschlecht, Rassenpräferenzen und religiöser Vorurteile, insbesondere in Bezug auf den Hijab, zu testen.

Pakzad räumte zwar die Vorteile der Technologie für Nicht-Muttersprachler ein, merkte jedoch an, dass das Modell auch in späteren Versionen eine offensichtliche Voreingenommenheit gegenüber marginalisierten Gemeinschaften aufwies.

Der Experte stellte außerdem fest, dass die Wahnvorstellungen – wenn der Chatbot mit erfundenen Informationen antwortet – schlimmer waren, als das Modell auf Farsi getestet wurde. Dort stellte Pakzad eine höhere Rate erfundener Namen, Zahlen und Ereignisse fest als auf Englisch.

Boru Gollu, Anwalt in Nairobi und der einzige Afrikaner, der das System getestet hat, bemerkte ebenfalls den diskriminierenden Ton des Systems. „An einem Punkt während des Tests verhielt sich das Modell so, als würde ein Weißer mit mir sprechen“, sagte Gollu. „Man fragt nach einer bestimmten Gruppe und erhält eine voreingenommene Meinung oder eine sehr voreingenommene Antwort.“

Auch aus Sicht der nationalen Sicherheit gibt es unterschiedliche Meinungen darüber, wie sicher das neue Modell ist. Lauren Kahn, Forscherin beim Council on Foreign Relations, war überrascht von der Detailliertheit, die die KI in einem Szenario eines Cyberangriffs auf Militärsysteme darstellte.

Unterdessen sagte Dan Hendrycks, ein KI-Sicherheitsexperte des „Red Teams“, dass Plug-ins das Risiko bergen, eine Welt zu schaffen, die der Mensch „nicht kontrollieren kann“.

„Was wäre, wenn ein Chatbot die persönlichen Daten einer anderen Person veröffentlichen, auf ihr Bankkonto zugreifen oder die Polizei zu ihr nach Hause schicken könnte? Insgesamt brauchen wir viel strengere Sicherheitsbewertungen, bevor wir der KI erlauben, die Macht des Internets auszuüben“, betonte Dan.

Die Risiken werden weiter zunehmen, da immer mehr Menschen die Technologie nutzen, sagt Heather Frase, die am Center for Security and Emerging Technology der Georgetown University arbeitet und GPT-4 auf seine Fähigkeit getestet hat, Kriminellen zu helfen.

Sie schlägt vor, ein öffentliches Hauptbuch zu erstellen, um Vorfälle zu melden, die sich aus großen Sprachmodellen ergeben, ähnlich wie bei Systemen zur Meldung von Cybersicherheit oder Verbraucherbetrug.

Laut FT


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt