Die britische Cybersicherheitsbehörde hat Organisationen gewarnt, die Chatbots mit künstlicher Intelligenz (KI) in ihre Produkte und Dienstleistungen integrieren. Untersuchungen hätten gezeigt, dass KI-Tools leicht manipuliert werden könnten, um böswillige Aufgaben auszuführen.
In einem Blogbeitrag vom 30. August erklärte das britische Cyber Security Centre (NCSC), dass Experten die potenziellen Cybersicherheitsprobleme im Zusammenhang mit Algorithmen, die „wie Menschen“ interagieren können – nämlich großen Sprachmodellen (LLMs) – noch nicht begriffen hätten.
Dies birgt Risiken, wenn solche Modelle in Geschäftsprozesse integriert werden, so das NCSC. Denn Akademiker und Forscher finden ständig neue Wege, KI auszutricksen, indem sie Chatbots anweisen, Betrug zu begehen oder eingebaute Sicherheitsvorkehrungen zu umgehen.
Beispielsweise könnte ein KI-Chatbot, der bei einer Bank eingesetzt wird, dazu verleitet werden, eine nicht autorisierte Transaktion durchzuführen, wenn der Hacker die richtigen „Anweisungen“ gibt.
„Organisationen, die Dienste rund um LLMs aufbauen, müssen in dem Sinne vorsichtig sein, dass sie ein neues Produkt in der Betaphase verwenden“, sagte das NCSC mit Bezug auf aktuelle KI-Versionen.
Eine aktuelle Umfrage von Reuters/Ipsos ergab, dass viele Unternehmensmitarbeiter Tools wie ChatGPT verwenden, um grundlegende Aufgaben wie das Verfassen von E-Mails, das Zusammenfassen von Dokumenten und das Sammeln erster Forschungsdaten auszuführen.
Von diesen gaben nur 10 % der Mitarbeiter an, dass ihre Vorgesetzten die Verwendung externer KI-Tools ausdrücklich verboten hätten, und 25 % wussten nicht, ob ihr Unternehmen die Verwendung dieser Technologie erlaubte.
Die überstürzte Integration von KI in Geschäftsmodelle werde „katastrophale Folgen“ haben, wenn Unternehmensleiter nicht die notwendige Sorgfalt walten lassen, sagte Oseloka Obiora, Chief Technology Officer des Sicherheitsunternehmens RiverSafe. „Anstatt auf den KI-Zug aufzuspringen, sollten Führungskräfte sorgfältig nachdenken und eine Risiko-Nutzen-Analyse sowie die notwendigen Sicherheitsmaßnahmen zum Schutz des Unternehmens durchführen.“
Fake News und Hacker
Weltweit versuchen Regierungen, den Aufstieg von LLMs wie ChatGPT von OpenAI zu bewältigen. Sicherheitsbedenken hinsichtlich der neuen Technologie stehen ebenfalls im Fokus der Politik. Die USA und Kanada gaben kürzlich an, dass Hacker zunehmend generative KI ausnutzen.
Ein Hacker gab sogar an, einen mit Schadsoftware „trainierten“ LLM gefunden und ihn beauftragt zu haben, einen Geldtransferbetrug zu konstruieren. Daraufhin generierte die KI eine drei Absätze lange E-Mail mit der Aufforderung an den Empfänger, eine dringende Rechnung zu bezahlen.
Im Juli 2023 stellte das Canadian Cyber Security Centre den zunehmenden Einsatz von KI bei „E-Mail-Betrug, Malware, Fehlinformationen und Desinformation“ fest. Sami Khoury, der Direktor des Zentrums, lieferte zwar keine konkreten Beweise, betonte aber, dass Cyberkriminelle diese neue Technologie aktiv ausnutzen.
Der Leiter sagte außerdem, dass sich der Einsatz von KI zur Erstellung von Schadsoftware zwar noch in der Anfangsphase befinde, sich KI-Modelle jedoch so schnell entwickelten, dass man leicht die Kontrolle über die damit verbundenen Schadrisiken verlieren könne.
Bereits im März 2023 veröffentlichte die europäische Polizeiorganisation Europol einen Bericht, in dem es hieß, ChatGPT könne „auf sehr realistische Weise Organisationen und Einzelpersonen imitieren, selbst wenn nur einfaches Englisch verwendet wird“. Im selben Monat erklärte das britische National Cyber Security Center, dass „LLM zur Unterstützung von Cyberangriffen eingesetzt werden könnte“.
(Laut Reuters)
[Anzeige_2]
Quelle
Kommentar (0)