El informe de octubre de OpenAI descubrió que los actores cibernéticos a nivel mundial están integrando principalmente inteligencia artificial (IA) en los canales de ataque existentes para mejorar el rendimiento, en lugar de desarrollar herramientas o métodos de ataque completamente nuevos.
Según OpenAI, gran parte de la actividad detectada implicó el uso de IA para ayudar con tareas familiares como desarrollar malware, construir infraestructura de control, crear correos electrónicos de phishing más sofisticados y recopilar información sobre los objetivos.
“Los equipos bloqueados en su mayoría incorporaban IA a procesos existentes, en lugar de crear nuevos procesos basados en IA”, afirma el informe.
El informe también encontró que muchos grupos de usuarios han aprovechado modelos de lenguaje grandes (LLM) para extraer conocimiento en una variedad de dominios técnicos, desde el desarrollo de aplicaciones hasta la configuración de sistemas de red, a menudo de una manera que especializa cada cuenta para una tarea específica.
Se han identificado otras redes de usuarios que utilizan plataformas de IA para generar contenido en línea, como artículos, imágenes y vídeos , para campañas de medios o promover ciertos puntos de vista. Sin embargo, la mayoría de estas cuentas son ineficaces y presentan niveles de interacción muy bajos.
Además, OpenAI también ha registrado el fenómeno de centros de fraude y ciberdelincuentes que utilizan ChatGPT para apoyar actividades de fraude en línea en Myanmar y Camboya. Algunos casos muestran que la IA se utiliza no solo para editar contenido, sino también para gestionar horarios de trabajo, recursos humanos y finanzas.
Sin embargo, OpenAI señala que la IA también se utiliza activamente para prevenir el fraude. Se estima que ChatGPT se utiliza tres veces más para identificar y evitar estafas que para cometer fraudes.
La mayoría de las solicitudes maliciosas son rechazadas por el sistema, pero el informe señala que todavía existe una “zona gris” donde las solicitudes técnicas o basadas en investigación pueden ser explotadas para fines no deseados.
Sin embargo, OpenAI afirma que el código o contenido creado no es malicioso hasta que se utiliza indebidamente fuera de la plataforma.
(TTXVN/Vietnam+)
Fuente: https://www.vietnamplus.vn/openai-canh-bao-tin-tac-loi-dung-ai-de-hoat-dong-tinh-vi-hon-post1068941.vnp
Kommentar (0)