La inteligencia artificial (IA) como ChatGPT ha sido un fenómeno mundial desde principios de 2023, pero no siempre se utiliza con fines positivos. Recientemente, un experto en seguridad descubrió una forma de pedirle a ChatGPT que creara código malicioso durante las pruebas.
Aaron Mulgrew, experto en seguridad de Forcepoint, compartió el riesgo de crear malware con el chatbot de lenguaje de OpenAI. Si bien ChatGPT se diseñó para evitar que los usuarios solicitaran a la IA que diseñara malware, Aaron encontró una vulnerabilidad al crear indicaciones para que la IA escribiera código de programación línea por línea. Al combinarlos, Aaron se dio cuenta de que tenía en sus manos una herramienta indetectable para ejecutar el robo de datos, tan sofisticada que era comparable al malware más sofisticado actual.
Cada línea de comando individual generada por ChatGPT, al combinarse, puede convertirse en malware sofisticado.
El descubrimiento de Mulgrew es una llamada de atención sobre el potencial de la IA para usarse para crear malware peligroso sin necesidad de que un grupo de piratas informáticos, o incluso que el creador de la herramienta escriba una sola línea de código.
El software de Mulgrew se disfraza de protector de pantalla, pero se activa automáticamente en dispositivos Windows. Una vez en el sistema operativo, el malware se infiltra en todos los archivos, incluyendo editores de texto de Word, archivos de imagen y PDF, en busca de datos para robar.
Una vez que obtiene lo que necesita, el programa descompone la información y la adjunta a archivos de imagen en el equipo. Para evitar ser detectado, las imágenes se suben a una carpeta de Google Drive. El malware es tan potente porque Mulgrew puede modificar y mejorar sus funciones para evitar ser detectado mediante comandos simples introducidos en ChatGPT.
Aunque se trató de una prueba privada realizada por expertos en seguridad y no se llevaron a cabo ataques fuera del ámbito de la prueba, la comunidad de ciberseguridad aún reconoce el peligro de las actividades que utilizan ChatGPT. Mulgrew afirma no tener mucha experiencia en programación, pero la inteligencia artificial de OpenAI aún no es lo suficientemente potente e inteligente como para impedir su prueba.
[anuncio_2]
Enlace de origen
Kommentar (0)