Samsung Electronics tomó esta decisión porque le preocupaba que los datos cargados en plataformas como ChatGPT y Bing se almacenaran en servidores externos, lo que dificultaría su eliminación, y potencialmente podrían ser divulgados a otros usuarios.
Samsung Electronics prohíbe a sus empleados usar IA tras la filtración de datos en ChatGPT. Foto ilustrativa.
En abril de 2023, la empresa realizó una encuesta sobre el uso interno de herramientas de IA, y más del 60 % de los encuestados afirmó que dichos servicios presentan riesgos. A principios del mes pasado, ingenieros de Samsung filtraron accidentalmente el código fuente interno al subirlo a ChatGPT, pero no se sabe con certeza qué información contenía.
Un representante de Samsung confirmó que la semana pasada se envió un memorando que prohibía el uso de servicios generales de inteligencia artificial.
Samsung Electronics, uno de los mayores fabricantes mundiales de chips de memoria y smartphones, se suma a la creciente lista de organizaciones que han prohibido a sus empleados el uso de herramientas de IA generativa en sus dispositivos de trabajo. En los últimos meses, varias importantes entidades financieras, como Goldman Sachs, han decidido prohibir o restringir el uso de plataformas similares a sus empleados.
Varios bancos de Wall Street, como JPMorgan Chase & Co., Bank of America Corp. y Citigroup Inc., prohibieron o restringieron el uso del servicio en febrero. Italia también prohibió ChatGPT por cuestiones de privacidad, aunque cambió de postura recientemente.
Samsung ha advertido a los empleados que utilicen ChatGPT y otras herramientas en sus dispositivos personales que no envíen información de la empresa ni datos personales que puedan revelar propiedad intelectual. Quienes incumplan esta norma serán despedidos.
Además de desarrollar sus propias herramientas internas de IA para la traducción y el resumen de documentos, así como para el desarrollo de software, Samsung busca bloquear la subida de información corporativa confidencial a servicios externos. El mes pasado, ChatGPT añadió un modo de incógnito que permite a los usuarios bloquear sus chats para que no se utilicen para entrenar modelos de IA.
[anuncio_2]
Fuente
Kommentar (0)