La inteligencia artificial (IA) como ChatGPT ha sido un fenómeno mundial desde principios de 2023, pero no siempre se utiliza con fines positivos. Recientemente, un experto en seguridad descubrió una forma de pedirle a ChatGPT que creara código malicioso durante las pruebas.
Aaron Mulgrew, experto en seguridad de Forcepoint, compartió el riesgo de crear malware con un chatbot de lenguaje desarrollado por OpenAI. Si bien ChatGPT se diseñó para evitar que los usuarios solicitaran a la IA que diseñara malware, Aaron detectó una vulnerabilidad al crear líneas de comando (solicitud) para que la inteligencia artificial escribiera código de programación en cada línea. Al combinarlas, Aaron se dio cuenta de que tenía en sus manos una herramienta indetectable para la ejecución de robos de datos, tan sofisticada que es comparable al malware más importante de la actualidad.
Cada línea de comando individual generada por ChatGPT, al combinarse, puede convertirse en malware sofisticado.
El descubrimiento de Mulgrew es una advertencia sobre el potencial de utilizar la IA para crear malware peligroso sin necesidad de que un grupo de piratas informáticos o incluso el creador de la herramienta escriba una sola línea de código.
El software de Mulgrew se disfraza de protector de pantalla, pero se activa automáticamente en dispositivos Windows. Una vez en el sistema operativo, el malware se infiltra en todos los archivos, incluyendo editores de documentos de Word, archivos de imagen y PDF, en busca de datos para robar.
Una vez que obtiene lo que necesita, el programa descompone la información y la adjunta a archivos de imagen en el equipo. Para evitar ser detectado, las imágenes se suben a una carpeta en el almacenamiento en la nube de Google Drive. El malware es tan potente porque Mulgrew puede modificar y mejorar sus funciones para evitar ser detectado mediante comandos simples introducidos en ChatGPT.
Aunque se trató de una prueba privada realizada por expertos en seguridad y no se llevaron a cabo ataques fuera del área de pruebas, la comunidad de ciberseguridad aún reconoce los peligros de las actividades que utilizan ChatGPT. Mulgrew afirma no tener mucha experiencia en programación, pero la inteligencia artificial de OpenAI aún no es lo suficientemente potente e inteligente como para impedir su prueba.
[anuncio_2]
Enlace de origen
Kommentar (0)