Que pensez-vous de la tendance des pirates informatiques à « instrumentaliser » l'IA pour mener des cyberattaques et des fraudes ?

Dr. Nguyen Tuan Khang : Selon l’indice X-Force Threat Intelligence Index 2024 d’IBM, la région Asie- Pacifique , y compris le Vietnam, est celle qui subira le plus de cyberattaques au monde en 2023. Parmi celles-ci, le secteur manufacturier est le plus touché par les cyberattaques.

La principale méthode employée par les cybercriminels reste le phishing, qui cible les personnes vulnérables et exploite leurs failles de sécurité pour installer des logiciels malveillants. Par ailleurs, une tendance émergente en 2024 est celle des cyberattaques impliquant l'intelligence artificielle (IA).

Le rapport de Wired souligne que de nombreux individus mal intentionnés utilisent l'IA générative pour guider leurs piratages, créer des chatbots frauduleux ou générer des images et des vidéos Deepfake qui imitent les visages et les voix d'autres personnes.

Cependant, parallèlement à cette tendance, les systèmes de sécurité de l'information commencent également à intégrer des fonctionnalités d'IA, telles que WatsonX. L'intelligence artificielle peut être exploitée, mais elle peut aussi remplacer les humains dans l'analyse, la surveillance, l'identification des menaces, la prédiction des scénarios d'attaque, améliorant ainsi les capacités de défense et minimisant les risques liés à la sécurité de l'information.

W-nguyen-tuan-khang-ibm-1.jpg
L'expert en cybersécurité Nguyen Tuan Khang. Photo de : Trong Dat

Les arnaques par deepfake sont de plus en plus fréquentes. Avec le développement rapide de l'IA, quel sera le niveau de dangerosité de ces attaques à l'avenir ?

Dr Nguyen Tuan Khang : En résumé, le deepfake est une technologie qui permet aux pirates informatiques de créer de fausses identités numériques et ainsi d’usurper l’identité d’autrui. Le deepfake représente un problème majeur car cette technologie devient de plus en plus sophistiquée.

Pour lutter contre les deepfakes, la première étape consiste à déterminer si l'image ou la voix d'une personne a été générée par une intelligence artificielle. Il n'existe actuellement aucun outil universel capable de détecter instantanément les deepfakes, car les pirates développent constamment de nouveaux modèles.

Outre la détection des deepfakes, une autre technique permet de les contrer : l’analyse comportementale. D’un point de vue organisationnel et commercial, il est nécessaire de développer un système combinant ces deux techniques.

Récemment, des cyberattaques ont eu lieu, au cours desquelles des pirates informatiques ont secrètement implanté des logiciels malveillants dans les systèmes des entreprises. Ces logiciels malveillants, restés à l'affût, analysent toutes les activités et créent ainsi une fausse identité pour mener à bien des actions malveillantes. Avec le développement de la technologie Deepfake, combinée à la capacité de créer des vidéos générées par l'IA, ce type d'attaques sera bien plus dangereux à l'avenir.

Face à l'escalade des cyberattaques de type Deepfake, comment pouvons-nous protéger les personnes âgées, les enfants et les autres groupes vulnérables contre les escrocs ?

Dr Nguyen Tuan Khang : Les personnes âgées et les enfants sont souvent victimes d’escrocs qui utilisent une technique appelée ingénierie sociale. Ce terme désigne les attaques qui consistent à manipuler le comportement humain.

Les pirates informatiques peuvent désormais utiliser l'IA, combinée à la collecte, à l'exploration et à l'analyse de données, pour identifier les personnes susceptibles d'être victimes d'escroqueries et trouver ensuite des moyens de les attaquer. Outre la sensibilisation du public, il est essentiel d'accepter que les escroqueries se produisent et d'utiliser la technologie pour les détecter et les prévenir.

W-fraud-en-ligne-1.jpg
Mise en garde du commissariat de Thanh Luong ( Hanoï ) concernant des cas d'usurpation d'identité de policiers pour escroquer des transferts d'argent. Photo : Trong Dat

Récemment, un employé de banque a soupçonné une femme âgée venue effectuer un virement d'être victime d'une escroquerie. Il a immédiatement interrompu la transaction et l'a signalée aux autorités. Les systèmes informatiques des banques disposent désormais de technologies permettant de remplacer l'intervention humaine dans ce type de tâches.

Le rôle de la technologie est de permettre, même si l'expéditeur est identifié comme une personne réelle, de bloquer le transfert en cas de suspicion de manipulation de la transaction. Ces outils sont appelés systèmes de prévention de la fraude.

Le Vietnam devrait-il imposer des sanctions pour gérer l'IA et encadrer la recherche, le développement et l'utilisation de l'IA ?

Dr. Nguyen Tuan Khang : La question de la gestion de l’IA est débattue depuis longtemps, mais elle reste encore très controversée. Par exemple, le parking de mon quartier est équipé d’un système d’IA de reconnaissance des plaques d’immatriculation, mais des vols ont tout de même eu lieu. À l’époque, la question de la responsabilité s’est posée : le propriétaire de l’immeuble, l’agent de sécurité ou le développeur du système d’IA ?

Depuis, l'immeuble a modifié son règlement : les résidents peuvent désormais opter pour l'utilisation de l'IA pour la reconnaissance des plaques d'immatriculation, par souci de commodité, mais ils doivent en accepter les risques. Ceux qui acceptent pourront utiliser les portes automatiques ; les autres devront se garer de manière traditionnelle. Il nous faut des sanctions de ce type.

De même, IBM a développé un système d'IA pour contribuer à la prévention du cancer. Lorsque ce système a prescrit un médicament, mais que le patient l'a pris sans pour autant être sauvé, la faute incombe-t-elle au médecin ou à l'IA ?

Je pense que la réglementation de l'IA doit être précise et définir clairement les limites du développement des applications d'IA. Pour un monde plus sûr, la mesure la plus élémentaire consiste à exiger une authentification biométrique pour les transferts d'argent importants. Ainsi, les personnes ayant perdu leurs informations d'identité pourront éviter toute perte financière.

Merci.

Les arnaques par deepfake, l'usurpation d'identité faciale et vocale vont augmenter en 2024. Selon les prévisions de VSEC, les cyberattaques utilisant l'IA, notamment les arnaques par deepfake pour usurper les visages et les voix, vont augmenter en 2024.