Künstliche Intelligenz (KI) wie ChatGPT sorgt seit Anfang 2023 weltweit für Furore, wird aber nicht immer für positive Zwecke eingesetzt. Kürzlich entdeckte ein Sicherheitsexperte eine Methode, ChatGPT während des Testens zur Generierung von Schadcode zu veranlassen.
Aaron Mulgrew, Sicherheitsexperte bei Forcepoint, erläuterte die Risiken der Entwicklung von Schadcode mithilfe des zweisprachigen Chatbots von OpenAI. Obwohl ChatGPT verhindern soll, dass Nutzer die KI mit der Erstellung von Malware beauftragen, entdeckte Aaron eine Sicherheitslücke, indem er Befehle (Eingabeaufforderungen) für die künstliche Intelligenz erstellte, um Code Zeile für Zeile zu schreiben. In Kombination damit erkannte Aaron, dass er ein unentdeckbares Werkzeug zum Datendiebstahl in seinen Händen hielt, das so raffiniert ist, dass es selbst mit den fortschrittlichsten derzeit verfügbaren Schadprogrammen mithalten kann.
Jede einzelne von ChatGPT generierte Codezeile kann, wenn sie mit anderen kombiniert wird, zu komplexer Schadsoftware werden.
Mulgrews Entdeckung dient als Weckruf hinsichtlich des Potenzials, KI auszunutzen, um gefährliche Malware zu erstellen, ohne dass Hackergruppen erforderlich sind und ohne dass die Schöpfer selbst auch nur eine einzige Zeile Code schreiben.
Mulgrews Schadsoftware ist als Desktop-Anwendung getarnt, kann sich aber auf Windows-Geräten automatisch aktivieren. Sobald sie in das Betriebssystem eingedrungen ist, durchsucht sie alle Dateien, darunter Word-Dokumente, Bilddateien und PDFs, um Daten zu stehlen.
Sobald das Programm die benötigten Informationen erhalten hat, zerlegt es diese und speichert sie in Bilddateien auf dem Computer. Um einer Entdeckung zu entgehen, werden diese Bilder in einem Ordner auf Google Drive hochgeladen. Die Malware wird dadurch extrem leistungsfähig, dass Mulgrew ihre Funktionen durch einfache Befehle in ChatGPT feinabstimmen und erweitern kann, um der Erkennung zu entgehen.
Obwohl es sich um das Ergebnis eines privaten Tests eines Sicherheitsexperten handelte und keine Angriffe außerhalb des Testbereichs durchgeführt wurden, erkannten Cybersicherheitsexperten dennoch die Gefahr von Aktivitäten mit ChatGPT. Mulgrew gab an, selbst wenig Programmiererfahrung zu haben, doch die künstliche Intelligenz von OpenAI sei noch nicht leistungsstark oder intelligent genug gewesen, um seinen Test zu stoppen.
Quellenlink






Kommentar (0)