Vietnam.vn - Nền tảng quảng bá Việt Nam

Seguridad de los datos en la era de la IA.

Las falsificaciones profundas (deepfakes), los ataques de phishing y el robo de identidad digital son cada vez más sofisticados y pueden atacar en cualquier momento, teniendo como objetivo a cualquiera que carezca de habilidades de defensa digital.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Atacar desde todos los ángulos.

Google ha lanzado un nuevo producto de inteligencia artificial (IA) llamado "Gemini Nano Banana", que no es una IA lingüística a gran escala capaz de escribir y razonar, sino más bien una IA especializada en edición de fotos... Muchos usuarios están entusiasmados con esta herramienta, pero también conlleva una serie de inconvenientes.

S4c.jpg
La escuela primaria Tran Hung Dao, en el barrio de Cau Ong Lanh, Ciudad Ho Chi Minh, utiliza un sistema de reconocimiento facial para controlar la asistencia y enviar notificaciones a los padres a través de una aplicación. Foto: HOANG HUNG

«Es como un retroceso en la tecnología de IA y en las limitaciones éticas», afirmó Nguyen Hong Phuc, director científico de Conductify AI, expresando su opinión personal. «Gemini Nano Banana tiene capacidades efectivas de edición de imágenes. Pero el hecho de que Google haya eliminado la censura de Gemini Nano Banana, relajando las barreras y los mecanismos de limitación, permite que esta IA cree imágenes increíblemente similares a las de celebridades, imágenes sugerentes, imágenes sensibles, etc.», añadió Phuc.

Según el Sr. Nguyen Hong Phuc, esta capacidad convierte a Gemini Nano Banana en una herramienta para crear imágenes falsas realistas, hasta el punto de que ni siquiera los expertos en IA pueden distinguirlas, lo que conlleva nuevos riesgos de fraude y ciberseguridad, como la creación de fotos falsas con políticos famosos para difundir información falsa, e incluso que las personas sean objeto de manipulación fotográfica generada por IA y difamación en las redes sociales...

Además, con docenas de otras herramientas de edición de fotos con IA que están arrasando en internet, las estafas con deepfakes no dan señales de detenerse. Las estadísticas de las organizaciones de seguridad muestran que la tecnología deepfake crea campañas de phishing dirigidas a personas de alto valor, especialmente líderes empresariales. En 2024, se registraron entre 140 000 y 150 000 casos a nivel mundial, de los cuales el 75 % iban dirigidos a directores ejecutivos y altos ejecutivos. Los deepfakes podrían aumentar las pérdidas económicas mundiales en un 32 %, aproximadamente 40 000 millones de dólares anuales para 2027.

Recientemente, la empresa de IA Anthropic detectó y frustró una campaña de ciberataques llevada a cabo por hackers extranjeros, registrando por primera vez el uso de IA para coordinar actividades de ataque automatizadas. En concreto, los hackers utilizaron sistemas de IA para planificar, dirigir y desplegar operaciones de intrusión, un hecho preocupante que podría aumentar la escala y la velocidad de las campañas de ciberataques.

El Sr. Ngo Minh Hieu, Director de la Organización Antifraude de la Asociación Nacional de Ciberseguridad, explicó que las herramientas con inteligencia artificial (IA) aumentan la velocidad del fraude aproximadamente 20 veces en comparación con el uso de personas reales. Los estafadores proporcionan a la IA un escenario de fraude para su análisis, y el sistema se comunica automáticamente con las víctimas. A partir de los datos iniciales, la IA puede comprender las necesidades de la víctima y comunicarse con ella en tiempo real. La táctica más sofisticada es el ataque "Man-in-the-Middle" (intermediario), en el que, cuando un usuario realiza una autenticación por video (como grabar su rostro o dar órdenes), el hacker interviene para interferir con los datos transmitidos. Los ciberdelincuentes insertan videos deepfake prefabricados, reemplazando el flujo de datos reales del usuario para eludir el proceso de autenticación. Con este método, los sistemas de seguridad de bancos e instituciones financieras también corren el riesgo de ser engañados.

Mejor gestión de datos

A medida que la IA se generaliza, los riesgos para la seguridad y la privacidad también aumentan significativamente. Los datos almacenados y procesados ​​en servidores remotos se convertirán en un objetivo atractivo para hackers y ciberdelincuentes. Según datos de la Asociación Nacional de Ciberseguridad, solo en el segundo trimestre de 2025, el número de ciberataques impulsados ​​por IA aumentó un 62%, causando pérdidas globales de hasta 18.000 millones de dólares.

Los expertos consideran que la protección de datos es fundamental. Sin embargo, la recopilación y venta de datos continúa abiertamente en numerosas plataformas del "mercado negro", por tan solo 20 dólares al mes. Los ciberdelincuentes pueden utilizar herramientas que imitan modelos de lenguaje, pero que están personalizadas con fines delictivos. Estas herramientas son capaces de generar malware e incluso de eludir el software antivirus.

En Vietnam, el Decreto n.° 13/2023/ND-CP (vigente desde el 17 de abril de 2023) regula la protección de datos personales. Además, la Ley de Protección de Datos Personales, que se espera entre en vigor el 1 de enero de 2026, establecerá un mecanismo legal más sólido para abordar el riesgo de filtraciones y uso indebido de datos personales. Sin embargo, según la Asociación Nacional de Ciberseguridad, la eficacia de la aplicación de la ley aún debe reforzarse en tres pilares: sensibilización pública, mayor responsabilidad corporativa y mejora de la capacidad de procesamiento de los organismos reguladores. Más allá de las medidas técnicas, cada persona debe desarrollar la capacidad de identificar señales inusuales y sospechosas y protegerse proactivamente de interacciones digitales peligrosas.

Kaspersky ha alertado sobre la explotación de la IA oscura (término que se refiere al despliegue de grandes modelos de lenguaje (MLL) que operan fuera de los controles de seguridad estándar, lo que a menudo permite acciones como el phishing, la manipulación, los ciberataques o el abuso de datos). Las organizaciones y los particulares deben prepararse para afrontar ciberataques cada vez más sofisticados y difíciles de detectar debido al auge de la IA oscura en la región de Asia-Pacífico.

Sergey Lozhkin, director del Equipo Global de Investigación y Análisis (GReAT) para las regiones de Oriente Medio, Turquía, África y Asia-Pacífico en Kaspersky, comentó que una manifestación del abuso actual de la IA es la aparición de modelos GPT de sombrero negro. Se trata de modelos de IA desarrollados o modificados específicamente para fines poco éticos e ilegales, como la creación de malware, la elaboración de correos electrónicos de phishing persuasivos y convincentes para ataques a gran escala, la creación de voces y vídeos deepfake, e incluso el apoyo a ataques simulados.

Los expertos de Kaspersky recomiendan que tanto particulares como empresas utilicen soluciones de seguridad de última generación para detectar el malware generado por IA, priorizando al mismo tiempo la protección de datos. Las empresas deben implementar herramientas de monitorización en tiempo real para rastrear la explotación de vulnerabilidades mediante IA; reforzar el control de acceso y la formación de los empleados para limitar la IA en zonas oscuras y el riesgo de fugas de datos; y establecer un centro de operaciones de ciberseguridad para monitorizar las amenazas y responder con rapidez a los incidentes.

Fuente: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Kommentar (0)

¡Deja un comentario para compartir tus sentimientos!

Mismo tema

Misma categoría

Mismo autor

Herencia

Cifra

Empresas

Actualidad

Sistema político

Local

Producto

Happy Vietnam
Nhanne

Nhanne

LLEVANDO EL CONOCIMIENTO A LA MONTAÑA

LLEVANDO EL CONOCIMIENTO A LA MONTAÑA

La felicidad de una familia.

La felicidad de una familia.