Vietnam.vn - Nền tảng quảng bá Việt Nam

Un experto en seguridad engaña a ChatGPT para que escriba código malicioso

Báo Thanh niênBáo Thanh niên15/04/2023

[anuncio_1]

La inteligencia artificial (IA) como ChatGPT ha sido un fenómeno mundial desde principios de 2023, pero no siempre se utiliza con fines positivos. Recientemente, un experto en seguridad descubrió una forma de pedirle a ChatGPT que creara código malicioso durante las pruebas.

Aaron Mulgrew, experto en seguridad de Forcepoint, compartió el riesgo de crear malware con un chatbot de lenguaje desarrollado por OpenAI. Si bien ChatGPT se diseñó para evitar que los usuarios solicitaran a la IA que diseñara malware, Aaron detectó una vulnerabilidad al crear líneas de comando (solicitud) para que la inteligencia artificial escribiera código de programación en cada línea. Al combinarlas, Aaron se dio cuenta de que tenía en sus manos una herramienta indetectable para la ejecución de robos de datos, tan sofisticada que es comparable al malware más importante de la actualidad.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Cada línea de comando individual generada por ChatGPT, al combinarse, puede convertirse en malware sofisticado.

El descubrimiento de Mulgrew es una advertencia sobre el potencial de utilizar la IA para crear malware peligroso sin necesidad de que un grupo de piratas informáticos o incluso el creador de la herramienta escriba una sola línea de código.

El software de Mulgrew se disfraza de protector de pantalla, pero se activa automáticamente en dispositivos Windows. Una vez en el sistema operativo, el malware se infiltra en todos los archivos, incluyendo editores de documentos de Word, archivos de imagen y PDF, en busca de datos para robar.

Una vez que obtiene lo que necesita, el programa descompone la información y la adjunta a archivos de imagen en el equipo. Para evitar ser detectado, las imágenes se suben a una carpeta en el almacenamiento en la nube de Google Drive. El malware es tan potente porque Mulgrew puede modificar y mejorar sus funciones para evitar ser detectado mediante comandos simples introducidos en ChatGPT.

Aunque se trató de una prueba privada realizada por expertos en seguridad y no se llevaron a cabo ataques fuera del área de pruebas, la comunidad de ciberseguridad aún reconoce los peligros de las actividades que utilizan ChatGPT. Mulgrew afirma no tener mucha experiencia en programación, pero la inteligencia artificial de OpenAI aún no es lo suficientemente potente e inteligente como para impedir su prueba.


[anuncio_2]
Enlace de origen

Kommentar (0)

No data
No data
Imagen de campos en terrazas en Phu Tho, con suave pendiente, brillantes y hermosos como espejos antes de la temporada de siembra.
La fábrica Z121 está lista para la Noche Final Internacional de Fuegos Artificiales
La famosa revista de viajes elogia la cueva Son Doong como "la más magnífica del planeta"
Una cueva misteriosa atrae a turistas occidentales, comparada con la "cueva Phong Nha" en Thanh Hoa
Descubra la belleza poética de la bahía de Vinh Hy
¿Cómo se procesa el té más caro de Hanoi, cuyo precio supera los 10 millones de VND/kg?
Sabor de la región del río
Hermoso amanecer sobre los mares de Vietnam
El majestuoso arco de la cueva en Tu Lan
Té de loto: un regalo fragante de la gente de Hanoi

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto