Le rapport d'OpenAI d'octobre a révélé que les cyberacteurs du monde entier intègrent principalement l'intelligence artificielle (IA) dans les chaînes d'attaque existantes pour améliorer leurs performances, plutôt que de développer des outils ou des méthodes d'attaque entièrement nouveaux.
Selon OpenAI, une grande partie de l'activité détectée impliquait l'utilisation de l'IA pour faciliter des tâches familières telles que le développement de logiciels malveillants, la mise en place d'infrastructures de contrôle, la création de courriels d'hameçonnage plus sophistiqués et la collecte d'informations sur les cibles.
« Les équipes bloquées intégraient pour la plupart l'IA dans des processus existants, plutôt que de créer de nouveaux processus basés sur l'IA », indique le rapport.
Le rapport a également constaté que de nombreux groupes d'utilisateurs ont exploité de grands modèles de langage (LLM) pour extraire des connaissances dans divers domaines techniques, du développement d'applications à la configuration de systèmes de réseau, souvent d'une manière qui spécialise chaque compte pour une tâche spécifique.
Plusieurs autres réseaux d'utilisateurs ont été identifiés comme utilisant des plateformes d'IA pour générer du contenu en ligne, notamment des articles, des images et des vidéos , afin de diffuser des campagnes médiatiques ou de promouvoir certains points de vue. Cependant, la plupart de ces comptes sont inefficaces, avec des taux d'engagement très faibles.
Par ailleurs, OpenAI a également constaté que des centres de fraude et des cybercriminels utilisaient ChatGPT pour faciliter leurs activités frauduleuses en ligne au Myanmar et au Cambodge. Certains cas montrent que l'IA est utilisée non seulement pour la modification de contenu, mais aussi pour la gestion des plannings, des ressources humaines et des finances.
Cependant, OpenAI souligne que l'IA est également activement utilisée pour prévenir la fraude. On estime que ChatGPT est utilisé trois fois plus souvent pour identifier et éviter les escroqueries que pour commettre des fraudes.
La plupart des requêtes malveillantes sont rejetées par le système, mais le rapport note qu'il existe encore une « zone grise » où des requêtes techniques ou à visée de recherche peuvent être exploitées à des fins non prévues.
Toutefois, OpenAI affirme que le code ou le contenu créé n'est pas malveillant tant qu'il n'est pas utilisé à mauvais escient en dehors de la plateforme.
(TTXVN/Vietnam+)
Source : https://www.vietnamplus.vn/openai-canh-bao-tin-tac-loi-dung-ai-de-hoat-dong-tinh-vi-hon-post1068941.vnp






Comment (0)