Da KI immer zugänglicher wird und immer mehr Einzelpersonen und Unternehmen KI über gängige Tools nutzen, können Hacker auch Angriffe automatisieren, Vorgänge beschleunigen und komplexere Kampagnen durchführen, um ihre illegalen Ziele zu erreichen.
Kaspersky hat folgende Angriffsarten beobachtet: ChatGPT kann zur Entwicklung von Schadsoftware und zur automatischen Durchführung von Angriffen auf mehrere Opfer verwendet werden; KI-Programme infiltrieren die Daten von Benutzern auf Smartphones und können durch die Analyse sensibler Daten Nachrichten, Passwörter und Bankcodes der Opfer vollständig „lesen“. Schwarmintelligenz-Algorithmen helfen automatisierten Computernetzwerken (Bonets) bei der Wiederherstellung bösartiger Netzwerke, die durch Sicherheitslösungen eliminiert wurden.
Kasperskys Forschung zum Einsatz von KI zum Knacken von Passwörtern zeigt, dass die meisten Passwörter mit Hash-Algorithmen wie MD5 und SHA verschlüsselt sind. Ein einfacher Vorgang kann ein Passwort in einen verschlüsselten Textstrom umwandeln, doch die Umkehrung dieses Prozesses ist eine große Herausforderung.
Mithilfe von KI können Angreifer betrügerische Inhalte wie Text, Bilder, Audio- und Videodateien für Social-Engineering-Angriffe nutzen. Umfangreiche Sprachmodelle wie ChatGPT-4o werden verwendet, um hochentwickelte Phishing-Skripte und -Nachrichten zu erstellen. Durch die Überwindung von Sprachbarrieren kann KI authentische E-Mails verfassen, die ausschließlich auf Informationen aus sozialen Netzwerken basieren. KI kann sogar den Schreibstil des Opfers nachahmen. Dadurch wird Phishing-Verhalten noch schwerer zu erkennen.
Gleichzeitig stellt Deepfake ein „Problem“ in der Cybersicherheit dar, obwohl es früher als Produkt wissenschaftlicher Forschung galt. Die häufigste Methode ist die Nachahmung von Prominenten zum finanziellen Vorteil. Betrüger nutzen Deepfake auch, um Konten zu stehlen und gefälschte Anrufe bei Freunden und Verwandten der Opfer zu tätigen, um sich Eigentum anzueignen.
Neben der Ausnutzung von KI-Technologie für illegale Aktivitäten können Kriminelle auch KI-Algorithmen angreifen. Beispiele hierfür sind „Prompt Injection“-Angriffe, bei denen bösartige Befehle in große Sprachmodelle eingegeben werden, selbst wenn zuvor festgelegte Regeln verletzt werden. Bei gegnerischen Angriffen werden versteckte Informationsfelder zu Bildern oder Audiodateien hinzugefügt, um die Bildklassifizierungsfähigkeit des maschinellen Lernsystems zu beeinträchtigen.
KI wird zunehmend in jeden Aspekt des menschlichen Lebens integriert, von Apple Intelligence über Google Gemini bis hin zu Microsoft Copilot. Daher sollte die Behebung von KI-Schwachstellen oberste Priorität haben. Kaspersky nutzt KI-Technologie seit vielen Jahren zum Schutz von Kunden und Partnern. Wir suchen kontinuierlich nach Schwachstellen in KI-Systemen, erhöhen die Widerstandsfähigkeit der Systeme und erforschen aktiv Cyberangriffstechniken, um einen zuverlässigen Schutz vor KI-Angriffen zu bieten.
KIM THANH
[Anzeige_2]
Quelle: https://www.sggp.org.vn/nhieu-thach-thuc-cua-ai-trong-thoi-dai-moi-post754401.html
Kommentar (0)