Terroristische Gruppen wie der Islamische Staat (IS) und Al-Qaida nutzen Technologie, insbesondere künstliche Intelligenz, um extremistische Botschaften zu verbreiten, Zensur zu umgehen und vor allem um Mitglieder zu rekrutieren.
In der Zeichentrickserie „Family Guy“, einer der weltweit beliebtesten Comedyserien, gibt es eine Szene, in der die Hauptfigur Peter Griffin einen mit Bomben beladenen LKW über eine Brücke fährt. Der IS nutzte jedoch künstliche Intelligenz (KI), um Griffins Worte durch den Satz „Unsere Waffen sind stark, wir haben viele Reihen, die Soldaten Allahs sind bereit“ zu ersetzen und so mehr Anhänger zu gewinnen.
„Die rasante Verbreitung von KI-Technologie in den letzten Jahren hat die Art und Weise, wie extremistische Organisationen im Cyberspace Einfluss ausüben, grundlegend verändert“, sagte der amerikanische Forscher Daniel Siegel. Im Februar 2024 kündigte eine mit Al-Qaida verbundene Gruppe an, Online-KI-Workshops zu veranstalten und veröffentlichte später eine Anleitung zur Nutzung von KI-Chatbots. Im März dieses Jahres, nach einem Terroranschlag eines IS-Ablegers auf ein Theater in Moskau, erstellte ein Anhänger der Gruppe eine Falschmeldung und verbreitete sie online. Erst Anfang Juli nahm das spanische Innenministerium neun junge Männer fest, die Inhalte verbreiteten, welche die IS-Organisation verherrlichten. Einer von ihnen soll sich auf extremistische Multimedia-Inhalte konzentriert und dafür spezielle KI-gestützte Bearbeitungsanwendungen genutzt haben.
„KI wird sowohl von Al-Qaida als auch vom IS als Ergänzung zur offiziellen Propaganda eingesetzt“, sagte Moustafa Ayad, Geschäftsführer für Afrika, den Nahen Osten und Asien am Londoner Institute for Strategic Dialogue. Dies überrascht langjährige IS-Beobachter nicht. Als die Gruppe um 2014 erstmals in Erscheinung trat, produzierte sie Videos zur Einschüchterung und Rekrutierung. Beobachter haben verschiedene Anwendungen von KI durch extremistische Gruppen dokumentiert. Neben Propaganda kann der IS auch Chatbots wie ChatGPT nutzen, um mit potenziellen Rekruten zu kommunizieren.
Obwohl KI-Modelle wie ChatGPT über bestimmte Regeln verfügen, die Nutzer an Straftaten wie Terrorismus und Mord hindern sollen, haben sich diese Regeln als unzuverlässig erwiesen und können von Terroristen leicht umgangen werden. Es bestehen zudem Bedenken, dass Extremisten KI-Werkzeuge für Cyberangriffe oder zur Planung realer Terroranschläge nutzen könnten.
Die größere Bedrohung besteht laut Analysten nun darin, dass diese Gruppen tatsächlich Anschläge verüben und Einzeltäter inspirieren oder erfolgreich neue Mitglieder rekrutieren. Angesichts der internationalen Empörung über Israels Krieg im Gazastreifen nutzen extremistische Gruppen zivile Opfer als rhetorisches Mittel, um Mitglieder zu gewinnen und Kampagnen aufzubauen.
Khan Minh
Quelle: https://www.sggp.org.vn/nguy-co-khi-cac-nhom-khung-bo-su-dung-cong-nghe-cao-post749867.html






Kommentar (0)