Vietnam.vn - Nền tảng quảng bá Việt Nam

Un experto en seguridad engaña a ChatGPT para que escriba código malicioso

Báo Thanh niênBáo Thanh niên15/04/2023

[anuncio_1]

La inteligencia artificial (IA) como ChatGPT ha sido una sensación mundial desde principios de 2023, pero esta IA no siempre se utiliza con fines positivos. Recientemente, un experto en seguridad encontró una forma de pedirle a ChatGPT que generara código malicioso durante las pruebas.

Aaron Mulgrew, experto en seguridad de la empresa Forcepoint, compartió el riesgo de escribir código malicioso utilizando el lenguaje de chatbot desarrollado por OpenAI. Aunque ChatGPT está diseñado para evitar que los usuarios le pidan a la IA que diseñe código malicioso, Aaron encontró una laguna al crear indicaciones que permiten a la IA escribir código de programación línea por línea. Al combinarlos, Aaron se dio cuenta de que tenía en sus manos una herramienta de robo de datos indetectable, tan sofisticada que era comparable al malware más avanzado de la actualidad.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Cada línea de comando individual generada por ChatGPT, al combinarse, puede convertirse en malware sofisticado.

El descubrimiento de Mulgrew es una advertencia sobre el potencial de utilizar la IA para crear malware peligroso sin necesidad de que un grupo de piratas informáticos o incluso el creador de la herramienta escriba una sola línea de código.

El software de Mulgrew está camuflado como una aplicación de protector de pantalla, pero es capaz de activarse automáticamente en dispositivos basados ​​en Windows. Una vez en el sistema operativo, el malware se "cuela" en todos los archivos, incluidos los editores de texto de Word, los archivos de imagen y los PDF, en busca de datos para robar.

Una vez que tiene lo que necesita, el programa descompone la información y la adjunta a archivos de imagen en la máquina. Para evitar ser detectadas, estas fotos se cargaron en una carpeta en el almacenamiento en la nube de Google Drive. El malware se vuelve súper poderoso porque Mulgrew puede modificar y mejorar sus funciones para evitar ser detectado a través de comandos simples ingresados ​​en ChatGPT.

Aunque este es el resultado de una prueba privada realizada por expertos en seguridad y no se han llevado a cabo ataques fuera del alcance de la prueba, los expertos en ciberseguridad aún reconocen el peligro de las actividades que utilizan ChatGPT. Mulgrew afirma tener poca experiencia en programación, pero la inteligencia artificial de OpenAI todavía no era lo suficientemente potente ni inteligente como para detener su prueba.


[anuncio_2]
Enlace de origen

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

10.000 antigüedades te transportan al antiguo Saigón
El lugar donde el tío Ho leyó la Declaración de Independencia
Donde el presidente Ho Chi Minh leyó la Declaración de Independencia
Explora la sabana en el Parque Nacional Nui Chua

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto