Vietnam.vn - Nền tảng quảng bá Việt Nam

Un experto en seguridad "engaña" a ChatGPT para que escriba malware.

Báo Thanh niênBáo Thanh niên15/04/2023


La inteligencia artificial (IA), como ChatGPT, ha causado sensación a nivel mundial desde principios de 2023, pero no siempre se utiliza con fines positivos. Recientemente, un experto en seguridad descubrió una forma de instruir a ChatGPT para que genere código malicioso durante las pruebas.

Aaron Mulgrew, experto en seguridad de Forcepoint, compartió los riesgos de escribir código malicioso utilizando el chatbot bilingüe de OpenAI. Si bien ChatGPT está diseñado para evitar que los usuarios soliciten a la IA que cree malware, Aaron descubrió una vulnerabilidad al crear comandos (indicaciones) para que la inteligencia artificial escribiera código línea por línea. Al combinarlos, Aaron se dio cuenta de que tenía en sus manos una herramienta de ejecución indetectable para robar datos, tan sofisticada que rivaliza incluso con el malware más avanzado disponible actualmente.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Cada línea de código generada por ChatGPT, al combinarse, puede convertirse en un malware sofisticado.

El descubrimiento de Mulgrew sirve como una llamada de atención sobre el potencial de explotar la IA para crear software malicioso peligroso sin necesidad de grupos de hackers, y sin que los creadores escriban siquiera una sola línea de código.

El malware de Mulgrew se disfraza de aplicación de escritorio, pero puede activarse automáticamente en dispositivos Windows. Una vez dentro del sistema operativo, el malware se "infiltra" en todos los archivos, incluidos documentos de Word, imágenes y archivos PDF, para buscar datos que robar.

Una vez que obtiene la información que necesita, el programa la procesa y la inserta en archivos de imagen en el ordenador. Para evitar ser detectado, estas imágenes se suben a una carpeta en el almacenamiento en la nube de Google Drive. El malware se vuelve increíblemente potente porque Mulgrew puede ajustar y mejorar sus funciones para evadir la detección mediante simples comandos introducidos en ChatGPT.

Aunque se trató de una prueba privada realizada por un experto en seguridad y no se ejecutaron ataques fuera del área de prueba, los expertos en ciberseguridad reconocieron el peligro de las actividades que utilizan ChatGPT. Mulgrew afirmó que él mismo no tenía mucha experiencia en programación, pero la inteligencia artificial de OpenAI aún no era lo suficientemente potente ni inteligente como para detener su prueba.



Enlace a la fuente

Kommentar (0)

¡Deja un comentario para compartir tus sentimientos!

Mismo tema

Misma categoría

Mismo autor

Herencia

Cifra

Empresas

Actualidad

Sistema político

Local

Producto

Happy Vietnam
Felicidad bajo el amanecer

Felicidad bajo el amanecer

Feliz Festival de Medio Otoño

Feliz Festival de Medio Otoño

Los fuegos artificiales clausuran la exposición “80 años del viaje hacia la independencia, la libertad y la felicidad”.

Los fuegos artificiales clausuran la exposición “80 años del viaje hacia la independencia, la libertad y la felicidad”.