Vietnam.vn - Nền tảng quảng bá Việt Nam

Warnung vor Sicherheitsrisiken bei der Integration von KI-Chatbots, die Unternehmen kennen müssen

Báo Quốc TếBáo Quốc Tế10/09/2023

Unternehmen müssen bei der Integration von KI-Tools in ihre Betriebsabläufe vorsichtig sein, da Hacker KI-Chatbots leicht umgehen und böswillige Aufgaben ausführen können.
Die britische National Cyber Security Agency hat Organisationen gewarnt, die KI-Chatbots in ihre Geschäftsabläufe integrieren. Immer mehr Forschungsergebnisse zeigen, dass KI-Tools leicht manipuliert werden können, um böswillige Aufgaben auszuführen.

In einem Blogbeitrag vom 30. August erklärte das britische Cyber Security Centre (NCSC), dass Experten die potenziellen Cybersicherheitsprobleme im Zusammenhang mit Algorithmen, die „wie Menschen“ interagieren können (sogenannte „Large Language Models“ oder „LLM“), noch immer nicht vollständig verstehen.

Das NCSC warnt, dass dies Risiken bergen kann, insbesondere wenn solche Modelle in Geschäftsprozesse eingebettet sind. Wissenschaftler und Forscher haben kürzlich auch Wege gefunden, KI auszutricksen, indem sie ihr unberechtigte Befehle erteilten oder eingebaute Sicherheitsvorkehrungen umgingen.

Công cụ tích hợp AI tạo sinh đang được sử dụng như chatbot, được cho sẽ thay thế không chỉ các hoạt động tìm kiếm trên Internet mà còn công việc liên quan dịch vụ khách hàng hay cuộc gọi bán hàng.
Generative KI-Tools werden als Chatbots eingesetzt, die nicht nur Internetsuchen, sondern auch Kundendienst- und Verkaufsgespräche ersetzen sollen.

Beispielsweise könnte ein bei einer Bank eingesetzter KI-Chatbot dazu verleitet werden, nicht autorisierte Transaktionen durchzuführen, wenn Hacker die richtigen „Anweisungen“ eingeben.

Daher warnt das NCSC in Bezug auf aktuelle Betaversionen von KI: „Organisationen, die Dienste rund um LLMs aufbauen, müssen genauso vorsichtig sein, als würden sie ein neues Produkt in der Betaversion verwenden.“

Eine aktuelle Umfrage von Reuters/Ipsos ergab, dass viele Unternehmensmitarbeiter Tools wie ChatGPT verwenden, um grundlegende Aufgaben wie das Verfassen von E-Mails, das Zusammenfassen von Dokumenten oder das Sammeln erster Forschungsdaten auszuführen.

Von diesen gaben nur etwa 10 % der Mitarbeiter an, dass ihre Vorgesetzten den Einsatz externer KI-Tools ausdrücklich verboten hätten, und 25 % wussten nicht, ob das Unternehmen den Einsatz dieser Technologie erlaubte.

Der Wettlauf um die Integration von KI in Geschäftsabläufe werde „katastrophale Folgen“ haben, wenn Unternehmensleiter nicht die notwendigen Kontrollen durchführen, sagte Oseloka Obiora, Chief Technology Officer des Sicherheitsunternehmens RiverSafe. „Anstatt dem KI-Trend hinterherzulaufen, sollten Führungskräfte sorgfältig nachdenken und die Vorteile und Risiken sowie die zum Schutz des Unternehmens erforderlichen Sicherheitsmaßnahmen bewerten.“

Fake News und Hacker

Behörden weltweit versuchen zudem, die Verbreitung von LLMs wie ChatGPT von OpenAI zu regulieren. Bedenken hinsichtlich der Sicherheit neuer Technologien stehen im Fokus der Politik. In den USA und Kanada wurden kürzlich vermehrt Fälle entdeckt, in denen Hacker zunehmend generative KI für illegale Handlungen nutzen.

Ein Hacker gab sogar an, einen mit Schadsoftware „trainierten“ LLM gefunden und ihn beauftragt zu haben, einen Geldtransferbetrug zu konstruieren. Die KI reagierte daraufhin mit einer E-Mail, in der der Empfänger aufgefordert wurde, eine dringende Rechnung zu bezahlen.

Im Juli 2023 beobachtete das Canadian Cyber Security Centre einen Anstieg des Einsatzes von KI bei „E-Mail-Betrug, Malware, Desinformation und Falschdarstellung“. Der Direktor des Zentrums, Sami Khoury, behauptete, Cyberkriminelle würden diese neue Technologie aktiv ausnutzen.

Dieser Experte fügte außerdem hinzu, dass sich der Einsatz von KI zur Erstellung von Schadsoftware zwar noch in der Anfangsphase befinde, sich KI-Modelle jedoch so schnell entwickelten, dass es leicht zu einem Punkt kommen könne, an dem die damit verbundenen schädlichen Risiken nicht mehr kontrolliert werden könnten.

Zuvor, im März 2023, veröffentlichte auch die europäische Polizeiorganisation Europol einen Bericht, in dem es hieß, ChatGPT könne „Organisationen und Einzelpersonen auf sehr realistische Weise imitieren, selbst wenn nur einfaches Englisch verwendet wird“. Im selben Monat bestätigte das britische National Cyber Security Center, dass „LLM zur Unterstützung von Cyberangriffen eingesetzt werden kann“.


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data
Die mächtige Formation von 5 SU-30MK2-Kampfflugzeugen bereitet sich auf die A80-Zeremonie vor
S-300PMU1-Raketen im Kampfeinsatz zum Schutz des Himmels über Hanoi
Die Lotusblütezeit lockt Touristen in die majestätischen Berge und Flüsse von Ninh Binh
Cu Lao Mai Nha: Wo Wildheit, Majestät und Frieden miteinander verschmelzen
Hanoi ist seltsam, bevor Sturm Wipha Land erreicht
Verloren in der wilden Welt im Vogelgarten in Ninh Binh
Die Terrassenfelder von Pu Luong sind in der Regenzeit atemberaubend schön
Asphaltteppiche auf der Nord-Süd-Autobahn durch Gia Lai
STÜCKE von HUE - Stücke von Hue
Magische Szene auf dem „umgedrehten Teehügel“ in Phu Tho

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt