Künstliche Intelligenz (KI) wie ChatGPT sorgt seit Anfang 2023 weltweit für Furore, wird aber nicht immer für positive Zwecke eingesetzt. Kürzlich fand ein Sicherheitsexperte eine Möglichkeit, ChatGPT während des Tests zur Erstellung von Schadcode aufzufordern.
Aaron Mulgrew, Sicherheitsexperte bei Forcepoint, erläuterte die Risiken beim Schreiben von Malware mithilfe eines von OpenAI entwickelten Sprach-Chatbots. Obwohl ChatGPT so konzipiert wurde, dass Benutzer die KI nicht mit der Entwicklung von Malware beauftragen, entdeckte Aaron dennoch eine Schwachstelle, indem er Befehlszeilen (Prompt) für die künstliche Intelligenz erstellte, um in jede einzelne Zeile Programmiercode zu schreiben. Durch die Kombination dieser beiden Funktionen erkannte Aaron, dass er ein unauffindbares Tool zum Ausführen von Datendiebstahl in den Händen hielt, das so ausgefeilt war, dass es mit der gängigen Malware von heute vergleichbar ist.
Jede einzelne von ChatGPT generierte Befehlszeile kann in Kombination zu hochentwickelter Schadsoftware werden.
Mulgrews Entdeckung ist eine Warnung vor der Möglichkeit, dass KI zur Erstellung gefährlicher Schadsoftware eingesetzt werden könnte, ohne dass eine Hackergruppe oder auch nur der Ersteller des Tools eine einzige Zeile Code schreiben müsste.
Mulgrews Software tarnt sich als Bildschirmschoner, kann sich aber auf Windows-Geräten automatisch aktivieren. Einmal im Betriebssystem angekommen, schleicht sich die Malware in jede Datei ein, darunter auch Word-Dokumente, Bilddateien und PDFs, und sucht nach Daten, die sie stehlen kann.
Sobald das Programm die benötigten Informationen gefunden hat, zerlegt es die Informationen und hängt sie an Bilddateien auf dem Computer an. Um eine Erkennung zu verhindern, werden die Bilder in einen Ordner im Cloud-Speicher Google Drive hochgeladen. Die Malware ist so leistungsfähig, weil Mulgrew seine Funktionen durch einfache Befehle in ChatGPT optimieren und verbessern kann, um eine Erkennung zu verhindern.
Obwohl es sich um einen privaten Test von Sicherheitsexperten handelte und keine Angriffe außerhalb des Testbereichs durchgeführt wurden, ist sich die Cybersicherheits-Community der Gefahren von Aktivitäten mit ChatGPT bewusst. Mulgrew behauptet, er habe nicht viel Erfahrung im Programmieren, aber die künstliche Intelligenz von OpenAI sei immer noch nicht leistungsstark und intelligent genug, um seinen Test zu verhindern.
[Anzeige_2]
Quellenlink
Kommentar (0)