Vietnam.vn - Nền tảng quảng bá Việt Nam

Un experto en seguridad “engaña” a ChatGPT para que escriba malware.

Báo Thanh niênBáo Thanh niên15/04/2023

[anuncio_1]

La inteligencia artificial (IA), como ChatGPT, ha sido un fenómeno mundial desde principios de 2023, pero no siempre se utiliza con fines positivos. Recientemente, un experto en seguridad descubrió una forma de instruir a ChatGPT para que genere código malicioso durante las pruebas.

Aaron Mulgrew, experto en seguridad de Forcepoint, compartió los riesgos de escribir código malicioso con el chatbot bilingüe de OpenAI. Si bien ChatGPT está diseñado para evitar que los usuarios soliciten a la IA que diseñe malware, Aaron encontró una vulnerabilidad al crear comandos (solicitudes) para que la inteligencia artificial escriba código línea por línea. Al combinarlos, Aaron se dio cuenta de que tenía en sus manos una herramienta de ejecución indetectable para el robo de datos, tan sofisticada que rivaliza incluso con el malware más avanzado disponible actualmente.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Cada línea individual de código generada por ChatGPT, al combinarse, puede convertirse en malware sofisticado.

El descubrimiento de Mulgrew sirve como una llamada de atención sobre el potencial de explotar la IA para crear malware peligroso sin necesidad de ningún grupo de piratas informáticos y sin que los creadores siquiera escriban una sola línea de código.

El malware de Mulgrew se disfraza de aplicación de escritorio, pero puede activarse automáticamente en dispositivos Windows. Una vez dentro del sistema operativo, el malware se infiltra en todos los archivos, incluyendo documentos de Word, imágenes y PDF, en busca de datos para robar.

Una vez que obtiene la información necesaria, el programa la descompone y la incrusta en archivos de imagen en el ordenador. Para evitar ser detectado, estas imágenes se suben a una carpeta en el almacenamiento en la nube de Google Drive. El malware se vuelve increíblemente poderoso porque Mulgrew puede ajustar y mejorar sus funciones para evadir la detección mediante comandos simples introducidos en ChatGPT.

Aunque esto fue el resultado de una prueba privada realizada por un experto en seguridad y no se ejecutaron ataques fuera del área de prueba, los expertos en ciberseguridad reconocieron el peligro de las actividades que utilizan ChatGPT. Mulgrew afirmó que, aunque no tenía mucha experiencia en programación, la inteligencia artificial de OpenAI aún no era lo suficientemente potente ni inteligente como para detener su prueba.


[anuncio_2]
Enlace de origen

Kommentar (0)

¡Deja un comentario para compartir tus sentimientos!

Mismo tema

Misma categoría

Mismo autor

Herencia

Cifra

Empresas

Actualidad

Sistema político

Local

Producto

Happy Vietnam
"El artesano bajo el cielo azul"

"El artesano bajo el cielo azul"

Sabor del campo

Sabor del campo

Nuevo día en las Tierras Altas Centrales

Nuevo día en las Tierras Altas Centrales