Laut Bloomberg informierte Samsung seine Mitarbeiter am 1. Mai über diese Entscheidung. Das Unternehmen befürchtet, dass auf KI-Plattformen wie Google Bard und Bing hochgeladene Daten auf externen Servern gespeichert werden, was das Abrufen und Löschen erschwert und sie letztendlich anderen Benutzern zugänglich macht.
Im vergangenen Monat führte der südkoreanische Elektronikriese eine Umfrage zum Einsatz von KI-Tools in seinen Unternehmen durch. 65 % der Befragten hielten solche Dienste für riskant. Anfang April veröffentlichten Samsung-Ingenieure versehentlich internen Quellcode auf ChatGPT. Es ist unklar, was die Informationen enthielten.
Ein Vertreter von Samsung bestätigte die Informationen zum Verbot der Nutzung generativer KI-Dienste.
In einem Memo an die Mitarbeiter räumte Samsung ein, dass generative KI-Plattformen wie ChatGPT immer mehr an Bedeutung gewinnen. Sie sind zwar praktisch und effektiv, werfen aber auch Sicherheitsbedenken auf.
Samsung ist der jüngste große Name, der Bedenken hinsichtlich der Technologie äußerte. Im Februar, nur wenige Monate nachdem OpenAIs ChatGPT-Chatbot die Welt im Sturm erobert hatte, verboten oder schränkten mehrere Wall-Street-Banken, darunter JPMorgan Chase, Bank of America und Citigroup, dessen Nutzung ein. Auch Italien verbot ChatGPT aus Sicherheitsbedenken, hob das Verbot jedoch kürzlich wieder auf.
Die Richtlinien von Samsung verbieten die Nutzung generativer KI-Dienste auf firmeneigenen Computern, Tablets und Smartphones sowie in internen Netzwerken. An Kunden verkaufte Geräte wie Smartphones und Laptops sind davon nicht betroffen.
Samsung verlangt von Mitarbeitern, die ChatGPT und andere Tools auf privaten Geräten nutzen, keine unternehmensbezogenen Informationen oder persönlichen Daten zu senden, die geistiges Eigentum preisgeben könnten. Das Unternehmen warnt, dass Verstöße zur Entlassung führen können.
Samsung entwickelt inzwischen auch eigene interne KI-Tools für die Übersetzung und Zusammenfassung von Dokumenten sowie für die Softwareentwicklung. Das Unternehmen möchte verhindern, dass Mitarbeiter vertrauliche Informationen auf externe Dienste hochladen. Im vergangenen Monat hat ChatGPT einen Inkognito-Modus hinzugefügt, mit dem Nutzer verhindern können, dass ihre Daten zum Trainieren von KI-Modellen verwendet werden.
(Laut Bloomberg)
[Anzeige_2]
Quelle
Kommentar (0)