Die massiven Investitionen der großen Technologieunternehmen in künstliche Intelligenz (KI) und Chatbots bereiten den Verantwortlichen für Informationssicherheit in Unternehmen Kopfzerbrechen. Laut CNBC durchdringt KI zunehmend die Arbeitswelt. Verantwortliche für Informationssicherheit müssen daher vorsichtig mit der Technologie umgehen und entsprechende Abwehrmaßnahmen vorbereiten.
Die Technologie hinter GPT wird als Large Language Model (LLM) bezeichnet. Nicht jedes Unternehmen verfügt über ein eigenes GPT, daher ist es wichtig zu beobachten, wie die Mitarbeiter es nutzen. Menschen werden generative KI nutzen, wenn sie sie nützlich finden, sagt Michael Chui, Partner am McKinsey Global Institute. Er vergleicht es mit der Nutzung eines Computers oder Telefons bei der Arbeit.
Selbst wenn es verboten ist, finden Mitarbeiter immer noch Wege, sich einzuschleichen. In der Vergangenheit gab es Technologien, die so attraktiv waren, dass die Menschen bereit waren, dafür zu bezahlen. Laut Chui kauften sie beispielsweise Mobiltelefone, bevor ihre Unternehmen ihnen persönliche Geräte zur Verfügung stellten.
CISOs, die sich bereits mit der Bedrohung durch Cyberangriffe auseinandersetzen müssen, haben mit KI und GPT nun eine weitere Sorge. Laut Chui können Unternehmen eine KI-Plattform lizenzieren, um zu überwachen, was Mitarbeiter Chatbots preisgeben, und sicherzustellen, dass die von ihnen freigegebenen Informationen geschützt sind.
„Als Unternehmen möchten Sie nicht, dass Ihre Mitarbeiter vertrauliche Informationen an einen öffentlichen Chatbot weitergeben“, sagt Chui. Daher ist es wichtig, technische Maßnahmen zu ergreifen, wie etwa die Lizenzierung von Software und die Unterzeichnung rechtlicher Vereinbarungen über die Verwendung Ihrer Daten.
Eine sichere Option, sagt Sameer Penakalapati, CEO von Ceipal, besteht darin, dass Unternehmen ihre eigene GPT entwickeln oder GPT-Entwickler mit der Erstellung einer eigenen Version beauftragen. Mit einer eigenen GPT verfügt die Software über genau die Informationen, auf die die Mitarbeiter des Unternehmens Zugriff haben sollen. Zudem können die von den Mitarbeitern eingegebenen Informationen geschützt werden. Unabhängig von der gewählten Lösung müssen Sie bei der Eingabe der GPT-Daten vorsichtig sein.
(Laut CNBC)
[Anzeige_2]
Quelle
Kommentar (0)