Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Un experto en seguridad engaña a ChatGPT para que escriba código malicioso

Báo Thanh niênBáo Thanh niên15/04/2023

[anuncio_1]

La inteligencia artificial (IA) como ChatGPT ha sido un fenómeno mundial desde principios de 2023, pero no siempre se utiliza con fines positivos. Recientemente, un experto en seguridad descubrió una forma de pedirle a ChatGPT que creara código malicioso durante las pruebas.

Aaron Mulgrew, experto en seguridad de Forcepoint, compartió el riesgo de crear malware con un chatbot de lenguaje desarrollado por OpenAI. Si bien ChatGPT se diseñó para evitar que los usuarios solicitaran a la IA que diseñara malware, Aaron detectó una vulnerabilidad al crear líneas de comando (solicitud) para que la inteligencia artificial escribiera código de programación en cada línea. Al combinarlas, Aaron se dio cuenta de que tenía en sus manos una herramienta indetectable para la ejecución de robo de datos, tan sofisticada que es comparable al malware más importante de la actualidad.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Cada línea de comando individual generada por ChatGPT, al combinarse, puede convertirse en malware sofisticado.

El descubrimiento de Mulgrew es una advertencia sobre el potencial de utilizar la IA para crear malware peligroso sin necesidad de que un grupo de piratas informáticos o incluso el creador de la herramienta escriba una sola línea de código.

El software de Mulgrew se disfraza de protector de pantalla, pero se activa automáticamente en dispositivos Windows. Una vez en el sistema operativo, el malware se infiltra en todos los archivos, incluyendo editores de documentos de Word, archivos de imagen y PDF, en busca de datos para robar.

Una vez que obtiene lo que necesita, el programa descompone la información y la adjunta a archivos de imagen en el equipo. Para evitar ser detectado, las imágenes se suben a una carpeta en el almacenamiento en la nube de Google Drive. El malware es tan potente porque Mulgrew puede modificar y mejorar sus funciones para evitar ser detectado mediante comandos simples introducidos en ChatGPT.

Aunque se trató de una prueba privada realizada por expertos en seguridad y no se llevaron a cabo ataques fuera del área de pruebas, la comunidad de ciberseguridad aún reconoce los peligros de las actividades que utilizan ChatGPT. Mulgrew afirma no tener mucha experiencia en programación, pero la inteligencia artificial de OpenAI aún no es lo suficientemente potente e inteligente como para impedir su prueba.


[anuncio_2]
Enlace de origen

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Resumen del entrenamiento A80: La fuerza de Vietnam brilla bajo la noche de la capital milenaria
Caos en el tráfico en Hanoi tras fuertes lluvias, conductores abandonan sus coches en carreteras inundadas
Momentos impresionantes de la formación de vuelo en servicio en la Gran Ceremonia del A80
Más de 30 aviones militares actúan por primera vez en la plaza Ba Dinh

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto