La inteligencia artificial (IA), como ChatGPT, ha causado sensación a nivel mundial desde principios de 2023, pero no siempre se utiliza con fines positivos. Recientemente, un experto en seguridad descubrió una forma de instruir a ChatGPT para que genere código malicioso durante las pruebas.
Aaron Mulgrew, experto en seguridad de Forcepoint, compartió los riesgos de escribir código malicioso utilizando el chatbot bilingüe de OpenAI. Si bien ChatGPT está diseñado para evitar que los usuarios soliciten a la IA que cree malware, Aaron descubrió una vulnerabilidad al crear comandos (indicaciones) para que la inteligencia artificial escribiera código línea por línea. Al combinarlos, Aaron se dio cuenta de que tenía en sus manos una herramienta de ejecución indetectable para robar datos, tan sofisticada que rivaliza incluso con el malware más avanzado disponible actualmente.
Cada línea de código generada por ChatGPT, al combinarse, puede convertirse en un malware sofisticado.
El descubrimiento de Mulgrew sirve como una llamada de atención sobre el potencial de explotar la IA para crear software malicioso peligroso sin necesidad de grupos de hackers, y sin que los creadores escriban siquiera una sola línea de código.
El malware de Mulgrew se disfraza de aplicación de escritorio, pero puede activarse automáticamente en dispositivos Windows. Una vez dentro del sistema operativo, el malware se "infiltra" en todos los archivos, incluidos documentos de Word, imágenes y archivos PDF, para buscar datos que robar.
Una vez que obtiene la información que necesita, el programa la procesa y la inserta en archivos de imagen en el ordenador. Para evitar ser detectado, estas imágenes se suben a una carpeta en el almacenamiento en la nube de Google Drive. El malware se vuelve increíblemente potente porque Mulgrew puede ajustar y mejorar sus funciones para evadir la detección mediante simples comandos introducidos en ChatGPT.
Aunque se trató de una prueba privada realizada por un experto en seguridad y no se ejecutaron ataques fuera del área de prueba, los expertos en ciberseguridad reconocieron el peligro de las actividades que utilizan ChatGPT. Mulgrew afirmó que él mismo no tenía mucha experiencia en programación, pero la inteligencia artificial de OpenAI aún no era lo suficientemente potente ni inteligente como para detener su prueba.
Enlace a la fuente






Kommentar (0)