Künstliche Intelligenz (KI) wie ChatGPT sorgt seit Anfang 2023 weltweit für Aufsehen, wird aber nicht immer für positive Zwecke eingesetzt. Kürzlich fand ein Sicherheitsexperte eine Möglichkeit, ChatGPT während des Tests zur Erstellung von Schadcode aufzufordern.
Aaron Mulgrew, Sicherheitsexperte bei Forcepoint, erläuterte die Risiken beim Schreiben von Malware mit dem Sprach-Chatbot von OpenAI. Obwohl ChatGPT entwickelt wurde, um Benutzer daran zu hindern, KI mit der Entwicklung von Malware zu beauftragen, fand Aaron dennoch eine Lücke, indem er die KI aufforderte, zeilenweise Programmcode zu schreiben. Durch die Kombination dieser beiden Funktionen erkannte Aaron, dass er ein unauffindbares Tool zur Ausführung von Datendiebstahl in den Händen hielt, das so ausgefeilt war, dass es mit der modernsten Malware von heute vergleichbar war.
Jede einzelne von ChatGPT generierte Befehlszeile kann in Kombination zu hochentwickelter Malware werden.
Mulgrews Entdeckung ist ein Weckruf hinsichtlich des Potenzials der KI, gefährliche Schadsoftware zu erstellen, ohne dass dafür eine Hackergruppe erforderlich wäre oder der Entwickler des Tools auch nur eine einzige Zeile Code schreiben müsste.
Mulgrews Software ist als Bildschirmschoner getarnt, kann sich aber auf Windows-Geräten automatisch aktivieren. Einmal im Betriebssystem angekommen, „infiltriert“ die Malware jede Datei, einschließlich Word-Texteditoren, Bilddateien und PDFs, auf der Suche nach Daten, die sie stehlen kann.
Sobald das Programm die benötigten Informationen hat, zerlegt es die Informationen und hängt sie an Bilddateien auf dem Computer an. Um eine Erkennung zu vermeiden, werden die Bilder in einen Ordner auf Google Drive hochgeladen. Die Malware ist so leistungsfähig, weil Mulgrew seine Funktionen durch einfache Befehle in ChatGPT optimieren und verbessern kann, um eine Erkennung zu vermeiden.
Obwohl es sich um einen privaten Test von Sicherheitsexperten handelte und keine Angriffe außerhalb des Testumfangs durchgeführt wurden, ist sich die Cybersicherheits-Community der Gefahr von Aktivitäten mit ChatGPT weiterhin bewusst. Mulgrew behauptet, er habe nicht viel Erfahrung im Programmieren, aber die künstliche Intelligenz von OpenAI sei immer noch nicht stark und intelligent genug, um seinen Test zu verhindern.
[Anzeige_2]
Quellenlink
Kommentar (0)