El Ministerio de Industria de Corea del Sur bloqueó temporalmente el acceso de los empleados al modelo de inteligencia artificial de DeepSeek debido a preocupaciones sobre el riesgo de fugas de información y recopilación de datos de los usuarios.
Corea del Sur bloquea temporalmente el acceso de sus empleados al modelo de inteligencia artificial de DeepSeek por temor a filtraciones de información. |
El 5 de febrero, el gobierno surcoreano pidió a los ministerios precaución al utilizar servicios de IA en el ámbito laboral. Además de DeepSeek, la lista también incluye ChatGPT y otras plataformas de inteligencia artificial, debido a la preocupación por el riesgo de fuga de datos.
Según funcionarios gubernamentales, varias agencias clave de Corea del Sur, como el Ministerio de Industria, el Ministerio de Defensa Nacional , el Ministerio de Asuntos Exteriores y el Ministerio de Comercio y Energía, han bloqueado simultáneamente el acceso a la plataforma de inteligencia artificial DeepSeek en los dispositivos de trabajo de los funcionarios. Esta medida busca mejorar la seguridad, prevenir el riesgo de fugas de datos y proteger la información confidencial en los sistemas gubernamentales.
Además, la empresa estatal Korea Hydro & Nuclear Power también ha tomado medidas similares desde principios de febrero, especialmente ante la creciente preocupación por la ciberseguridad y la recopilación de datos de plataformas extranjeras de IA. Estas medidas reflejan la cautela de Corea del Sur a la hora de regular la tecnología de inteligencia artificial, especialmente los modelos que tienen acceso a datos nacionales importantes.
Según la agencia de noticias Yonhap, el Ministerio de Asuntos Exteriores de Corea del Sur ha restringido el acceso a la plataforma de inteligencia artificial DeepSeek en ordenadores conectados a redes externas. Sin embargo, la agencia no reveló las medidas de seguridad específicas implementadas, lo que indica precaución en la protección de información confidencial.
La restricción de DeepSeek forma parte de los esfuerzos generales del gobierno surcoreano para controlar los riesgos relacionados con la tecnología de inteligencia artificial, en particular el riesgo de fuga de datos y la recopilación no autorizada de información de plataformas extranjeras de IA. Esto refleja la creciente preocupación del gobierno por la ciberseguridad, dado el rápido desarrollo de la IA, que puede afectar áreas importantes como la diplomacia, la defensa y la economía.
Corea del Sur se ha convertido en el último país en expresar su preocupación por los modelos de IA originarios de China. Anteriormente, Australia y Taiwán (China) también advirtieron que DeepSeek representaba un riesgo para la seguridad, lo que generó preocupación mundial sobre los riesgos de las plataformas extranjeras de inteligencia artificial.
En enero de 2025, la autoridad de protección de datos de Italia bloqueó el acceso al chatbot de la startup china porque la empresa no cumplió con los requisitos de la política de privacidad.
Los gobiernos de Europa, Estados Unidos e India también están evaluando los riesgos potenciales asociados con el uso de DeepSeek, lo que refleja las preocupaciones globales sobre la seguridad y la privacidad de los datos de la plataforma de IA.
En Corea del Sur, las autoridades planean solicitar a DeepSeek una explicación detallada de cómo recopila, almacena y procesa la información personal de los usuarios. Esta medida busca garantizar que la plataforma de IA cumpla con las regulaciones de seguridad y privacidad de datos, y evaluar el nivel de riesgos que podrían surgir de las operaciones de la compañía en el país.
Kakao Corp., la empresa creadora de la aplicación de mensajería más popular de Corea del Sur, anunció la prohibición del uso de DeepSeek por parte de sus empleados. La decisión, tomada justo un día después de que Kakao anunciara una alianza con OpenAI, refleja la cautela de la empresa con respecto a las plataformas de IA y una tendencia hacia controles más estrictos sobre las tecnologías de inteligencia artificial originarias de China.
En general, las empresas tecnológicas de Corea del Sur se están volviendo más cautelosas con las plataformas de IA generativa. SK Hynix, uno de los principales fabricantes de chips de IA, ha adoptado una estricta política de control, limitando el uso interno de servicios de IA. La empresa solo permite el acceso cuando es absolutamente necesario para minimizar el riesgo de filtración de información importante y garantizar la seguridad de los datos en el entorno laboral.
Mientras tanto, Naver, uno de los principales operadores de portales web en Corea del Sur, dijo que ha emitido una regulación que prohíbe a los empleados utilizar plataformas de inteligencia artificial que almacenen datos fuera del sistema de la empresa, con el fin de mejorar la seguridad y proteger la información interna.
[anuncio_2]
Fuente
Kommentar (0)