Que pensez-vous de la tendance des pirates à « militariser » l’IA pour mener des cyberattaques et des fraudes ?
Dr Nguyen Tuan Khang : Selon l'indice X-Force Threat Intelligence 2024 d'IBM, l'Asie- Pacifique , y compris le Vietnam, est la région qui subira le plus de cyberattaques au monde en 2023. Parmi celles-ci, l'industrie manufacturière est la plus touchée par les cyberattaques.
La principale méthode utilisée par les pirates reste l'hameçonnage (phishing), qui cible les personnes vulnérables et exploite leurs vulnérabilités pour installer des logiciels malveillants. Par ailleurs, la tendance émergente en 2024 est celle des cyberattaques impliquant l'intelligence artificielle (IA).
Le rapport de Wired souligne que de nombreux méchants utilisent l'IA générative pour guider les piratages, créer des chatbots frauduleux ou créer des images et des vidéos Deepfake qui imitent les visages et les voix d'autres personnes.
Cependant, parallèlement à cette tendance, les systèmes de sécurité informatique commencent également à intégrer des fonctionnalités d'IA, comme WatsonX. L'intelligence artificielle peut être exploitée, mais elle peut aussi remplacer l'humain dans l'analyse, la surveillance, l'identification des données et la prévision des scénarios d'attaque, améliorant ainsi les capacités de défense et minimisant les risques pour la sécurité informatique.
Les arnaques deepfakes sont de plus en plus courantes. Avec le développement rapide de l'IA, quelle sera la dangerosité de ces attaques à l'avenir ?
Dr Nguyen Tuan Khang : En résumé, le deepfake est une technologie qui permet aux pirates de créer de fausses identités numériques, usurpant ainsi l’identité d’autrui. Le deepfake deviendra un problème dangereux car cette technologie devient de plus en plus sophistiquée.
Pour lutter contre les deepfakes, la première étape consiste à déterminer si l'image ou la voix d'une personne est générée par l'IA. Il n'existe actuellement aucun outil universel capable de détecter immédiatement les deepfakes, car les attaquants développent constamment de nouveaux modèles.
Outre la détection des deepfakes, il existe une autre technique pour les gérer : l'analyse comportementale. D'un point de vue organisationnel et commercial, il est nécessaire de développer un système combinant ces deux techniques.
Ces dernières années, des cyberattaques ont eu lieu : des pirates ont secrètement implanté des logiciels malveillants dans les systèmes des entreprises. Ces logiciels malveillants, à l'affût, analysent toutes les activités, créant ainsi une fausse identité pour mener à bien leurs actions malveillantes. Avec le développement de la technologie Deepfake, combinée à la capacité de créer des vidéos par IA, ces types d'attaques seront bien plus dangereuses à l'avenir.
Avec l’escalade des cyberattaques Deepfake, comment pouvons-nous protéger les personnes âgées, les enfants et les autres groupes vulnérables des escrocs ?
Dr Nguyen Tuan Khang : Les personnes âgées et les enfants sont souvent victimes d’escroqueries utilisant une technique appelée ingénierie sociale. Ce terme désigne les attaques par manipulation du comportement humain.
Les pirates informatiques peuvent désormais utiliser l'IA en combinaison avec la collecte, l'exploration et l'analyse de données pour identifier les personnes susceptibles d'être victimes d'arnaques et trouver des moyens d'attaquer. Outre la sensibilisation de la communauté, nous devons également accepter que des arnaques se produisent et utiliser la technologie pour les détecter et les prévenir.
Récemment, un employé de banque a soupçonné une femme âgée venue transférer de l'argent de présenter des signes d'escroquerie. Cette personne a alors immédiatement interrompu la transaction et signalé l'incident aux autorités. Les systèmes informatiques des banques disposent désormais de technologies permettant de remplacer les humains dans ces tâches.
Le rôle de la technologie est que, même si l'expéditeur est reconnu comme étant la personne réelle, le système interrompra le transfert s'il soupçonne une manipulation de la transaction. Ces outils sont appelés systèmes de prévention de la fraude.
Est-il temps pour le Vietnam d’imposer des sanctions pour gérer l’IA et d’encadrer la recherche, le développement et l’utilisation de l’IA ?
Dr Nguyen Tuan Khang : La question de la gestion de l'IA est débattue depuis longtemps, mais de nombreuses controverses subsistent. Par exemple, le parking de mon quartier est équipé d'un système d'IA pour reconnaître les plaques d'immatriculation, mais des vols ont tout de même eu lieu. À cette époque, la question de savoir à qui incombait la responsabilité a commencé à se poser. Le propriétaire, l'agent de sécurité ou le développeur du système d'IA devaient-ils en être responsables ?
Depuis, le règlement de l'immeuble a été modifié : les résidents peuvent désormais utiliser l'IA pour reconnaître les plaques d'immatriculation, mais ils doivent en accepter les risques. Ceux qui acceptent pourront utiliser les portes automatiques, tandis que ceux qui refusent devront garer leur voiture à l'ancienne. Des sanctions de ce type sont nécessaires.
De même, IBM a développé un système d'IA pour prévenir le cancer. Si le système prescrit un médicament, mais que le patient le prend sans pouvoir être sauvé, est-ce la faute du médecin ou de l'IA ?
Je pense que la réglementation de l'IA doit être précise et indiquer clairement ce qui est autorisé et interdit lors du développement d'applications d'IA. Pour rendre le monde plus sûr, la réglementation la plus élémentaire que nous puissions adopter est d'exiger la reconnaissance biométrique des transferts d'argent importants. Dans une telle situation, les personnes qui perdent leurs informations d'identité peuvent éviter toute perte financière.
Merci.
Source
Comment (0)