Vietnam.vn - Nền tảng quảng bá Việt Nam

Seguridad de datos en la era de la IA.

Las falsificaciones profundas, los ataques de phishing y el robo de identidad digital son cada vez más sofisticados y pueden atacar en cualquier momento, apuntando a cualquiera que carezca de habilidades de defensa digital.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Ataca desde todos los ángulos.

Google ha lanzado un nuevo producto de inteligencia artificial (IA) llamado "Gemini Nano Banana", que no es una IA lingüística a gran escala (LLM) capaz de escribir y razonar, sino una IA especializada en edición de fotografías... Muchos usuarios están entusiasmados con esta herramienta, pero también trae consigo una serie de inconvenientes.

S4c.jpg
La Escuela Primaria Tran Hung Dao, en el barrio de Cau Ong Lanh, Ciudad Ho Chi Minh, utiliza un sistema de reconocimiento facial para registrar la asistencia y enviar notificaciones a los padres mediante una aplicación. Foto: HOANG HUNG

“Es como un retroceso en la tecnología de IA y sus limitaciones éticas”, declaró Nguyen Hong Phuc, director científico de Conductify AI, expresando su opinión personal. “Gemini Nano Banana tiene capacidades efectivas de edición de imágenes. Pero la eliminación de la censura de Google, al relajar las barreras y los mecanismos de limitación, permite a esta IA crear imágenes increíblemente similares a las de celebridades, imágenes sugerentes, imágenes sensibles, etc.”, añadió Phuc.

Según el Sr. Nguyen Hong Phuc, esta capacidad convierte a Gemini Nano Banana en una herramienta para crear imágenes falsas realistas, hasta el punto de que incluso los expertos en IA no pueden distinguirlas, lo que genera nuevos riesgos de fraude y ciberseguridad, como la creación de fotos falsas con políticos famosos para difundir información falsa, e incluso que las personas sean objeto de manipulación de fotografías generadas por IA y difamación en las redes sociales...

Además, con docenas de otras herramientas de edición de fotos con IA arrasando en internet, las estafas deepfake no dan señales de detenerse. Las estadísticas de organizaciones de seguridad muestran que la tecnología deepfake crea campañas de phishing dirigidas a personas de alto valor, especialmente a líderes empresariales. En 2024, se registraron entre 140.000 y 150.000 casos a nivel mundial, de los cuales el 75 % se dirigían a directores ejecutivos y altos ejecutivos. Las deepfakes podrían incrementar las pérdidas económicas mundiales en un 32 %, aproximadamente 40.000 millones de dólares al año para 2027.

Recientemente, la empresa de inteligencia artificial Anthropic detectó y frustró una campaña de ciberataques llevada a cabo por hackers extranjeros, lo que por primera vez registró el uso de IA para coordinar actividades de ataque automatizadas. En concreto, los hackers utilizaron sistemas de IA para planificar, dirigir y desplegar operaciones de intrusión, un avance preocupante que podría ampliar la escala y la velocidad de las campañas de ciberataques.

El Sr. Ngo Minh Hieu, Director de la Organización Antifraude de la Asociación Nacional de Ciberseguridad, explicó que las herramientas integradas con IA multiplican por 20 la velocidad del fraude en comparación con el uso de personas reales. Los estafadores proporcionan a la IA un escenario de fraude para su análisis, y el sistema chatea automáticamente con las víctimas. A partir de los datos iniciales, la IA puede comprender lo que la víctima desea y comunicarse con ella en tiempo real. La táctica más sofisticada es el ataque "Man-in-the-Middle", en el que cuando un usuario realiza una autenticación por vídeo (como grabar su rostro o dar órdenes), el hacker interviene para interferir con los datos transmitidos. Los ciberdelincuentes insertan entonces vídeos deepfake previamente preparados, reemplazando el flujo de datos real del usuario para eludir el proceso de autenticación. Con este método, los sistemas de seguridad de bancos e instituciones financieras también corren el riesgo de ser engañados.

Mejor gestión de datos

A medida que la IA se vuelve cada vez más frecuente, los riesgos para la seguridad y la privacidad también aumentan significativamente. Los datos almacenados y procesados ​​en servidores remotos se convertirán en un objetivo atractivo para hackers y ciberdelincuentes. Según datos de la Asociación Nacional de Ciberseguridad, solo en el segundo trimestre de 2025, el número de ciberataques impulsados ​​por IA aumentó un 62%, causando pérdidas globales de hasta 18 000 millones de dólares.

Los expertos consideran crucial la protección de datos. Sin embargo, la recopilación y venta de datos continúa abiertamente en muchas plataformas del mercado negro, por tan solo 20 dólares al mes. Los ciberdelincuentes pueden usar herramientas que imitan modelos de lenguaje, pero están personalizadas para fines delictivos. Estas herramientas son capaces de generar malware e incluso eludir los antivirus.

En Vietnam, el Decreto n.º 13/2023/ND-CP (en vigor desde el 17 de abril de 2023) regula la protección de datos personales. Además, la Ley de Protección de Datos Personales, cuya entrada en vigor está prevista para el 1 de enero de 2026, establecerá un mecanismo legal más sólido para abordar el riesgo de fugas y uso indebido de datos personales. Sin embargo, según la Asociación Nacional de Ciberseguridad, la eficacia de la aplicación de la ley aún debe reforzarse en tres pilares: concienciación pública, mayor responsabilidad corporativa y mejora de la capacidad de procesamiento de los organismos reguladores. Más allá de las medidas técnicas, cada persona debe desarrollar la capacidad de identificar señales inusuales y sospechosas y protegerse proactivamente de interacciones digitales peligrosas.

Kaspersky ha advertido sobre la explotación de la IA oscura (un término que se refiere al despliegue de grandes modelos de lenguaje (LLM) que operan al margen de los controles de seguridad estándar, lo que a menudo permite acciones como phishing, manipulación, ciberataques o abuso de datos). Las organizaciones y las personas deben prepararse para afrontar ciberataques cada vez más sofisticados y difíciles de detectar debido al auge de la IA oscura en la región Asia-Pacífico.

Sergey Lozhkin, director del Equipo Global de Investigación y Análisis (GReAT) para las regiones de Oriente Medio, Turquía, África y Asia-Pacífico de Kaspersky, explicó que una manifestación del abuso actual de la IA es la aparición de modelos GPT de Black Hat. Estos son modelos de IA desarrollados o modificados específicamente para fines poco éticos e ilegales, como la creación de malware, la elaboración de correos electrónicos de phishing fluidos y persuasivos para ataques a gran escala, la creación de voces y vídeos deepfake, e incluso la simulación de ataques.

Los expertos de Kaspersky recomiendan que tanto particulares como empresas utilicen soluciones de seguridad de última generación para detectar malware generado por IA, priorizando al mismo tiempo la protección de datos. Las empresas deben implementar herramientas de monitorización en tiempo real para rastrear la explotación de vulnerabilidades impulsada por IA; reforzar el control de acceso y la formación de los empleados para limitar la presencia de IA en la zona oscura y el riesgo de fugas de datos; y establecer un centro de operaciones de ciberseguridad para supervisar las amenazas y responder con rapidez a los incidentes.

Fuente: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Kommentar (0)

¡Deja un comentario para compartir tus sentimientos!

Mismo tema

Misma categoría

Mismo autor

Herencia

Cifra

Empresas

Actualidad

Sistema político

Local

Producto

Happy Vietnam
Naturaleza magnífica

Naturaleza magnífica

Yo y la pintura de mi tierra natal

Yo y la pintura de mi tierra natal

Kitesurf en la playa de Mui Ne

Kitesurf en la playa de Mui Ne