Según Bloomberg , Samsung informó a sus empleados sobre esta decisión el 1 de mayo. A la compañía le preocupa que los datos cargados en plataformas de inteligencia artificial como Google Bard y Bing se almacenen en servidores externos, lo que dificulta su recuperación y eliminación, y que eventualmente se divulguen a otros usuarios.
El mes pasado, el gigante surcoreano de la electrónica realizó una encuesta sobre el uso de herramientas de IA en sus empresas. El 65 % de los encuestados creía que dichos servicios presentaban riesgos. A principios de abril, ingenieros de Samsung filtraron accidentalmente el código fuente interno al publicarlo en ChatGPT. Se desconoce el contenido de la información.
El representante de Samsung confirmó la información sobre la prohibición del uso de servicios de IA generativa.
En un memorando dirigido a los empleados, Samsung reconoció que las plataformas de IA generativa como ChatGPT están ganando terreno. Si bien son prácticas y eficaces, también plantean problemas de seguridad.
Samsung es la última gran empresa en expresar su preocupación por esta tecnología. En febrero, apenas unos meses después de que el chatbot ChatGPT de OpenAI arrasara a nivel mundial, varios bancos de Wall Street, como JPMorgan Chase, Bank of America y Citigroup, prohibieron o restringieron su uso. Italia también prohibió ChatGPT por motivos de seguridad, pero recientemente revocó la prohibición.
La política de Samsung prohíbe el uso de servicios de IA generativa en computadoras, tabletas y teléfonos proporcionados por la empresa, así como en redes internas. No afecta a los dispositivos vendidos a clientes, como smartphones y portátiles.
Samsung exige a los empleados que utilicen ChatGPT y otras herramientas en sus dispositivos personales que no envíen información relacionada con la empresa ni datos personales que puedan revelar propiedad intelectual. La empresa advierte que cualquier incumplimiento resultará en despido.
Mientras tanto, Samsung también está desarrollando sus propias herramientas internas de IA para la traducción y el resumen de documentos, así como para el desarrollo de software. La compañía busca evitar que los empleados suban información confidencial a servicios externos. El mes pasado, ChatGPT añadió un modo de incógnito que permite a los usuarios evitar que sus datos se utilicen para entrenar modelos de IA.
(Según Bloomberg)
[anuncio_2]
Fuente
Kommentar (0)