Generative KI birgt zahlreiche Risiken für die Cybersicherheit, insbesondere nach den weitverbreiteten Cyberbetrügereien in Hongkong, so ein Cybersicherheitsunternehmen, das KI zur Bekämpfung dieser Bedrohung einsetzt.
Phishing-E-Mails und Voice-Spoofing-Anrufe, die von künstlicher Intelligenz generiert werden, werden immer raffinierter und sind schwerer zu erkennen. (Foto: Shutterstock)
In Hongkong haben Betrüger Menschen über Online-Chats, Telefonanrufe und Textnachrichten um 4,8 Milliarden HK-Dollar (611,5 Millionen US-Dollar) betrogen. KI-generierte Audio-, Video- und Textdateien machen diese Betrugsarten schwerer zu erkennen.
Das Aufkommen generativer KI-Tools wie ChatGPT werde dazu führen, dass bestimmte Arten von Betrug häufiger und effektiver würden, sagte Kim-Hock Leow, Asien-CEO der Wizlynx Group, einem in der Schweiz ansässigen Unternehmen für Cybersicherheitsdienste.
„Wir sehen, dass die Nachahmung von Sprache und Video immer realistischer wird und von Personen genutzt werden kann, die Informationen stehlen und die Cybersicherheit von Unternehmen gefährden wollen“, erklärte er.
Regierungen ergreifen Maßnahmen gegen den Anstieg von Online-Betrug. Im Februar warnte das Pekinger Büro für öffentliche Sicherheit in einer Erklärung auf WeChat, Betrüger könnten KI nutzen, um „Verbrechen zu begehen und Gerüchte zu verbreiten“. Und im März warnte die US-amerikanische Federal Trade Commission vor Betrügern, die KI-generierte Stimmen verwenden, um sich als andere Personen auszugeben, deren Stimme lediglich auf einem kurzen Audioclip aus dem Internet basiert.
„Jeder ist anfällig für Phishing-Angriffe, doch diese lassen sich aufgrund ihrer Länge, Rechtschreibfehler oder fehlender Informationen über Sie und Ihre Arbeit leicht erkennen. Doch jetzt können Cyberkriminelle neue KI-Sprachmodelle nutzen, um die Komplexität ihrer Phishing-E-Mails zu erhöhen“, so Kim-Hock Leow .
Diese Betrügereien werden mithilfe eines Tools wie ChatGPT durchgeführt, um die Sprache der Nachrichten zu scannen und zu professionalisieren. Dies kann eine schnelle Hintergrundrecherche umfassen, um Kontextinformationen hinzuzufügen und die betrügerischen E-Mails zu personalisieren.
Finanzunternehmen setzen ChatGPT mittlerweile selbst ein, um diese raffinierten Betrügereien zu bekämpfen. Sie nutzen Chatbots, um Phishing-E-Mails für Schulungen zur Betrugsbekämpfung zu generieren, Schwachstellen zu identifizieren und Cybersicherheitssysteme zu erforschen.
„Basierend auf dem Wissen und den Daten, die KI im Laufe der Zeit sammeln und generieren kann, können Cybersicherheitsexperten sie nutzen, um anfällige und riskante Bereiche des Sicherheitssystems genau zu identifizieren“, erklärte Herr Leow.
„Wir müssen Cybersicherheitsexperten und andere Branchen dazu ermutigen, ChatGPT selbst zu nutzen, um ihre Abwehrmaßnahmen zu verbessern. In gewisser Weise ist es ein zweischneidiges Schwert, das sowohl für die Cybersicherheit als auch für die Cyberkriminalität eingesetzt wird“, fügte er hinzu.
Die Nutzungsbedingungen von OpenAI, dem Entwickler von ChatGPT, verbieten die Nutzung seiner Technologie für illegale Zwecke. Dennoch bestehe das Risiko, dass böswillige Akteure die Filter von ChatGPT umgehen könnten, sagte Leow.
Einem Bericht von Cybersecurity Ventures zufolge wird Cyberkriminalität in diesem Jahr weltweit Schäden in Höhe von 8 Billionen US-Dollar an gestohlenem Geld, verlorenem Vermögen und Produktivitätsverlust verursachen.
Angesichts dieser Bedrohung könnte sich in der Cybersicherheit ein KI-Wettrüsten anbahnen. „In den kommenden Jahren werden wir erleben, wie Sicherheitsteams KI effektiv nutzen, um die Bedrohungserkennung zu verbessern und einen Großteil des Abwehrprozesses zu automatisieren“, sagte David Fairman, Chief Information Officer für den asiatisch- pazifischen Raum bei Netskope.
Khanh Ly (Quelle: SCMP)
Nützlich
Emotion
Kreativ
Einzigartig
Zorn
[Anzeige_2]
Quelle
Kommentar (0)