Ein Forscherteam gibt an, ChatGPT dazu gebracht zu haben, einige Daten preiszugeben, indem es die KI anwies, zufällige Wörter zu wiederholen.
Forscher von Google DeepMind, der University of Washington, der Cornell University, der Carnegie Mellon University, der University of California Berkeley und der ETH Zürich haben KI-Unternehmen aufgefordert, ihre Produkte gründlich zu testen – von großen Sprachmodellen bis hin zur zugrunde liegenden Technologie, die KI-Dienste wie Chatbots und Bildgeneratoren antreibt –, bevor sie diese offiziell veröffentlichen.
Die Warnung erfolgte, nachdem Forscher ChatGPT aufgefordert hatten, das Wort „Gedicht“ in einer Endlosschleife zu wiederholen. ChatGPT kam dieser Aufforderung nach, gab dann aber die echte E-Mail-Adresse und Telefonnummer des CEO und Mitbegründers von OpenAI preis. Bei einem Test mit dem Wort „Firma“ zeigte der Chatbot die E-Mail-Adresse und Telefonnummer einer zufällig ausgewählten Anwaltskanzlei an.
ChatGPT-Logo auf einem Smartphone. Foto: Reuters
Mithilfe anderer Schlüsselwörter gelang es ihnen außerdem, ChatGPT dazu zu bringen, Bitcoin-Adressen, Faxnummern, Namen, Geburtsdaten, Social-Media-Konten, Auszüge aus urheberrechtlich geschützten Forschungsarbeiten oder bezahlte Artikel von CNN preiszugeben. Das Team benötigte lediglich 200 US-Dollar, um 10.000 Beispiele persönlicher Informationen und Daten zu generieren.
Die Forscher zeigten sich überrascht, bezeichneten die ChatGPT-Schwachstelle als „wirklich dumm“ und sagten, sie hätte früher entdeckt werden müssen.
Die Sicherheitslücke wurde OpenAI gemeldet und am 30. August behoben. In einem neuen Test von Engadget , bei dem ChatGPT aufgefordert wurde, das Wort „Antwort“ endlos zu wiederholen, erhielt die Tech-Website jedoch den Namen und die Skype-ID einer Person.
OpenAI hat sich noch nicht geäußert.
Generative KI-Systeme wie ChatGPT oder der Text-zu-Bild-Generator Dall-E basieren auf großen Sprachmodellen und Algorithmen des maschinellen Lernens, die ohne Zustimmung der Nutzer mit riesigen Datenmengen trainiert werden. OpenAI hat nicht offengelegt, mit welchen Daten ChatGPT trainiert wurde, da das zugrundeliegende große Sprachmodell nicht quelloffen ist.
Laut Huy Duc - VnExpress
Quelle






Kommentar (0)