Microsoft a identifié un réseau international de cybercriminels capable de contourner les protections des services d'IA générative pour créer du contenu malveillant, notamment des photos sensibles de célébrités et d'autres contenus pornographiques.

Les pirates ont collecté des informations d'identification de service à partir de sources publiques et les ont utilisées pour accéder à des services d'IA génératifs, notamment Azure OpenAI de Microsoft.

Ils modifient ensuite les capacités des produits d’IA et vendent l’accès à d’autres gangs criminels, leur expliquant comment créer du contenu malveillant.

hacker d3sign/Moment RF
Microsoft a révélé publiquement que quatre pirates vendaient des outils pour « déjouer » son service d'IA. Photo : d3sign/Moment RF

Selon Microsoft, ces individus sont : Arian Yadegarnia (alias Fiz) d'Iran, Alan Krysiak (Drago) du Royaume-Uni, Ricky Yuen (cg-dot) de Hong Kong (Chine) et Phat Phung Tan (Asakuri) du Vietnam.

Tous les quatre sont accusés d'appartenir au réseau de cybercriminalité Storm-2139. Deux autres individus sont américains, mais Microsoft n'a pas révélé leur identité afin de protéger l'enquête.

Microsoft indique que Storm-2139 est organisé en trois groupes principaux : les créateurs, les fournisseurs et les utilisateurs finaux. Les créateurs créent des outils illégaux pour exploiter le service d'IA générative ; les fournisseurs les modifient ensuite et les proposent aux utilisateurs finaux à des prix et avec des services différents ; et enfin, les utilisateurs utilisent ces outils pour créer du contenu malveillant, souvent axé sur des stars et des images pornographiques.

Ces informations ont été publiées par Microsoft alors que les inquiétudes grandissent concernant l'utilisation abusive de l'IA générative pour créer de fausses images de célébrités et de personnes ordinaires, ainsi que de la pornographie infantile.

Des entreprises comme Microsoft et OpenAI interdisent ces pratiques et prennent des mesures techniques pour les empêcher, mais des groupes de hackers comme celui ci-dessus trouvent encore des moyens de « contourner les règles ».

Selon Steven Masada, avocat général adjoint de l'unité de lutte contre les crimes numériques (DCU) de Microsoft, ils reconnaissent l'impact grave et durable que les images abusives ont sur les victimes.

L'entreprise s'engage à protéger les utilisateurs en intégrant des mesures de sécurité d'IA dans la plateforme et en protégeant le service contre les contenus illégaux et nuisibles.

En décembre 2024, la DCU a intenté une action en justice dans le district oriental de Virginie (États-Unis) contre 10 individus non identifiés qui se sont livrés à des activités violant la loi américaine et les politiques de Microsoft.

Le tribunal a émis une ordonnance de restriction temporaire et une injonction préliminaire, permettant à Microsoft de saisir un site Web utilisé pour des activités criminelles, perturbant ainsi la capacité du groupe à fonctionner.

Notamment, après cette action, certains membres soupçonnés d'appartenir à Storm-2139 ont envoyé des courriels aux conseillers de Microsoft et se sont mutuellement blâmés.

« Cette réponse souligne l’impact des actions en justice de Microsoft et démontre comment les mesures peuvent perturber efficacement les réseaux cybercriminels en saisissant les infrastructures et en créant un fort effet dissuasif sur les membres », a écrit Microsoft dans un article de blog le 27 février.

(Selon Microsoft, Bloomberg)