Insbesondere hat der Google-Mutterkonzern Alphabet seinen Mitarbeitern geraten, ihre vertraulichen Dokumente nicht in KI-Chatbots einzugeben. Quellen innerhalb von Alphabet, die Reuters vorliegen, zufolge warnte das Unternehmen seine Ingenieure auch davor, den von Chatbots generierten Computercode direkt zu verwenden.
Auch der Tech-Gigant Google ist besorgt über Informationslecks durch seinen eigenen KI-Chatbot. Foto: Reuters
Bei den Chatbots, zu denen Bard und ChatGPT gehören, handelt es sich um Programme, die sogenannte allgemeine künstliche Intelligenz nutzen, um menschenähnliche Gespräche mit Benutzern zu führen. Und Experten zufolge können Chatbots die Daten, die sie während des Antwortvorgangs aufnehmen, reproduzieren, wodurch die Gefahr eines Informationsverlusts bei den Benutzern entsteht.
Die Bedenken zeigen, dass Google geschäftliche Schäden durch die Software, die es als Konkurrenz zu ChatGPT auf den Markt gebracht hat, vermeiden möchte. Die Vorsicht von Google spiegelt auch einen weltweit wachsenden Trend der Angst wider. Unternehmen warnen unter anderem davor, Informationen über Chatbots preiszugeben.
Immer mehr Unternehmen weltweit haben Sicherheitsvorkehrungen für KI-Chatbots getroffen, darunter Samsung, Amazon und die Deutsche Bank.
Laut einer Umfrage der US-amerikanischen Website Fishbowl unter fast 12.000 Personen nutzten im Januar etwa 43 % der Technikexperten ChatGPT oder andere KI-Tools, oft ohne ihren Vorgesetzten davon zu erzählen.
Bereits im Februar forderte Google die Mitarbeiter des Bard-Chatbots auf, keine internen Informationen preiszugeben, berichtete Insider. Google führt Bard derzeit in mehr als 180 Ländern und in 40 Sprachen ein.
Die KI-Technologie von Google wird auf Tools angewendet, die automatisch E-Mails und Dokumente verfassen und sogar Software erstellen. Allerdings können diese Stellen falsche Informationen enthalten, was auch das Risiko eines Informationslecks birgt.
Bui Huy (laut Reuters, Insider)
[Anzeige_2]
Quelle
Kommentar (0)