Vietnam.vn - Nền tảng quảng bá Việt Nam

Seguridad de datos en la era de la IA

Los deepfakes, los ataques de phishing, el robo de información y de identidad digital... son cada vez más sofisticados y pueden atacar en cualquier momento a cualquiera que carezca de habilidades de defensa digital.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Ataque desde todos los ángulos

Google ha lanzado un nuevo producto de inteligencia artificial (IA) llamado “Gemini Nano Banana”, que no es una IA de lenguaje amplio (LLM) con capacidad para escribir y razonar, sino una IA especializada en edición de fotos… Muchos usuarios están entusiasmados con esta herramienta, pero también conlleva muchos efectos perjudiciales.

S4c.jpg
La escuela primaria Tran Hung Dao, en el barrio Cau Ong Lanh de Ciudad Ho Chi Minh, utiliza un sistema de reconocimiento facial para registrar la asistencia de los alumnos y enviar notificaciones a los padres a través de una aplicación. Foto: HOANG HUNG

«Es como una regresión en la tecnología y la ética de la IA», afirmó Nguyen Hong Phuc, director científico de Conductify AI. «Gemini Nano Banana tiene la capacidad de editar fotos eficazmente. Pero la eliminación de la censura por parte de Google, que debilita las barreras y los mecanismos limitantes, permite que esta IA cree imágenes muy parecidas a las de celebridades, imágenes sensuales, imágenes sensibles…», añadió Phuc.

Según el Sr. Nguyen Hong Phuc, esta capacidad convierte a Gemini Nano Banana en una herramienta para crear imágenes falsas tan realistas que ni siquiera los expertos en IA pueden distinguirlas, lo que conlleva nuevos riesgos de fraude y ciberseguridad, como la creación de fotos con políticos y figuras públicas para difundir información falsa, e incluso la edición de fotos de particulares mediante IA para su difamación en redes sociales...

Además, con decenas de otras herramientas de IA para la edición de fotos que están causando furor en internet, el fraude con deepfakes no parece tener fin. Las estadísticas de organizaciones de seguridad muestran que la tecnología deepfake crea campañas de fraude dirigidas a personas de alto poder adquisitivo, especialmente líderes empresariales. En 2024, se registraron entre 140 000 y 150 000 casos a nivel mundial, de los cuales el 75 % tenían como objetivo a directores ejecutivos y altos directivos. El deepfake podría incrementar las pérdidas económicas globales en un 32 %, lo que equivale a unos 40 000 millones de dólares anuales para 2027.

Recientemente, la empresa AI Anthropic detectó y previno una campaña de ciberataques llevada a cabo por hackers extranjeros, en la que, por primera vez, se registró el uso de IA para coordinar actividades de ataque automatizadas. En concreto, los hackers utilizaron sistemas de IA para planificar, dirigir y ejecutar las intrusiones, un hecho preocupante que conlleva el riesgo de aumentar la escala y la velocidad de las campañas de ciberataques.

El Sr. Ngo Minh Hieu, Director de la Organización Antifraude de la Asociación Nacional de Ciberseguridad, explicó que la herramienta con inteligencia artificial integrada detecta el fraude a una velocidad aproximadamente 20 veces mayor que con personas reales. Los usuarios presentan el escenario de fraude a la IA para su análisis, y el sistema inmediatamente se comunica con las víctimas. A partir de los datos iniciales, la IA puede comprender las necesidades de la víctima y conversar con ella en tiempo real. La técnica más sofisticada es el ataque de intermediario (Man-in-the-Middle), que consiste en que, mientras el usuario realiza la autenticación por video (como girar el rostro o leer comandos), el atacante se interpone para manipular la transmisión de datos. En ese momento, los ciberdelincuentes insertan videos deepfake, reemplazando el flujo de datos reales del usuario para eludir la autenticación. Con este método, los sistemas de seguridad de bancos e instituciones financieras también corren el riesgo de ser vulnerados.

Mejor gestión de datos

A medida que la IA se populariza, los riesgos para la seguridad y la privacidad aumentan significativamente. Los datos almacenados y procesados ​​en servidores remotos se convertirán en un objetivo atractivo para hackers y organizaciones cibercriminales. Según datos de la Asociación Nacional de Ciberseguridad, tan solo en el segundo trimestre de 2025, el número de ciberataques que utilizaron IA aumentó un 62%, causando pérdidas globales de hasta 18 mil millones de dólares.

Los expertos afirman que la protección de datos es vital. Sin embargo, la recopilación y venta de datos aún se realiza abiertamente en numerosas plataformas de la dark web, por tan solo 20 dólares al mes. Los ciberdelincuentes pueden utilizar herramientas que funcionan de forma similar a los modelos de lenguaje, pero adaptadas para fines delictivos. Estas herramientas son capaces de crear código malicioso e incluso de eludir el software antivirus.

En Vietnam, el Decreto N.° 13/2023/ND-CP (en vigor desde el 17 de abril de 2023) regula la protección de datos personales. Además, se prevé que la Ley de Protección de Datos Personales entre en vigor el 1 de enero de 2026, estableciendo un marco legal más sólido para responder al riesgo de filtración y uso indebido de datos personales. Sin embargo, según la Asociación Nacional de Ciberseguridad, aún es necesario fortalecer la eficacia de la aplicación de la ley en los tres pilares: sensibilización de la población, mayor responsabilidad empresarial y mejora de la capacidad de gestión de los organismos reguladores. Además de las medidas técnicas, es fundamental que cada persona desarrolle la capacidad de identificar señales inusuales y sospechosas y se proteja de forma proactiva de las interacciones digitales peligrosas.

La empresa de seguridad Kaspersky ha alertado sobre el mal uso de la IA oscura (término que describe el despliegue de grandes modelos de lenguaje (LLM) que operan fuera de los controles de seguridad estándar, lo que suele permitir acciones como el fraude, la manipulación, los ciberataques o el abuso de datos). Organizaciones y particulares deben prepararse para ciberataques cada vez más sofisticados y difíciles de detectar debido al auge de la IA oscura en la región de Asia-Pacífico.

Sergey Lozhkin, jefe del Equipo Global de Investigación y Análisis (GReAT) de Kaspersky para Oriente Medio, Turquía, África y la región de Asia-Pacífico, explicó que una de las manifestaciones del abuso de la IA en la actualidad es la aparición de modelos GPT maliciosos. Estos modelos de IA se desarrollan o modifican específicamente para fines ilícitos y poco éticos, como la creación de malware, la redacción de correos electrónicos de phishing persuasivos y convincentes para perpetrar ataques a gran escala, la creación de voces y vídeos deepfake, e incluso el apoyo a operaciones de ataque simuladas.

Los expertos de Kaspersky recomiendan que tanto particulares como empresas utilicen soluciones de seguridad de última generación para detectar malware generado por IA e identifiquen la protección de datos como un objetivo fundamental. Para las empresas, es necesario implementar herramientas de monitorización en tiempo real para controlar las vulnerabilidades explotadas por IA; reforzar el control de acceso y la formación del personal para limitar el uso indebido de IA y el riesgo de fuga de datos; y establecer un centro de operaciones de ciberseguridad para supervisar las amenazas y responder con rapidez a los incidentes.

Fuente: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Cuarta vez que veo la montaña Ba Den con claridad, algo poco común desde Ciudad Ho Chi Minh.
Deléitate con los hermosos paisajes de Vietnam en el videoclip de Soobin, Muc Ha Vo Nhan.
Las cafeterías que adelantan la decoración navideña disparan sus ventas, atrayendo a muchos jóvenes.
¿Qué tiene de especial la isla cercana a la frontera marítima con China?

Mismo autor

Herencia

Cifra

Negocio

Admirando los trajes nacionales de 80 bellezas que compiten en Miss Internacional 2025 en Japón

Actualidad

Sistema político

Local

Producto