Tom Hanks met en garde contre les fausses images générées par l'IA sur son Instagram personnel
Selon The Guardian , l'acteur Tom Hanks a averti ses fans que son image dans une récente publicité dentaire était fausse et créée grâce à l'intelligence artificielle (IA). La star de Forrest Gump a publié sur Instagram à l'intention de ses 9,5 millions d'abonnés : « Attention ! Il existe une vidéo publicitaire dentaire montrant une image de moi créée par l'IA. Je n'ai rien à voir avec ce projet. »
Dans un courriel adressé au New York Times , un porte-parole de Meta, la société mère d'Instagram, n'a pas commenté directement la publicité, mais a déclaré que la diffusion de publicités utilisant des images de célébrités à des fins trompeuses enfreignait nos règles communautaires. « Nous avons consacré des ressources importantes à la lutte contre ce type d'escroqueries et avons considérablement renforcé notre application de la loi, notamment en suspendant et en supprimant les comptes, les pages et les publicités qui enfreignent nos règles », a ajouté le porte-parole.
Mark Zuckerberg, PDG du célèbre réseau social Facebook, a lui aussi été victime de cette technologie. À partir d'un simple discours, l'IA a créé une vidéo dans laquelle il admettait que Facebook volait les données des utilisateurs et contrôlait l'avenir. Bien que la voix de l'IA imitant Mark Zuckerberg dans cette vidéo ne soit pas très similaire, elle reste très difficile à reconnaître.
Aux États-Unis, une fausse voix au téléphone, si réelle qu'elle semblait, a fait croire à une mère que sa fille avait été kidnappée. « Maman, sauve-moi », a récemment entendu Jennifer DeStefano, en Arizona, sa fille sangloter au téléphone, avant qu'un homme ne l'interrompe et ne réclame une rançon. La mère était absolument convaincue que sa fille, qui skiait, avait été kidnappée. « Je ne me suis même pas demandé qui c'était. C'était sa voix. C'est comme ça qu'elle pleurait, donc je ne me doutais de rien », a-t-elle déclaré. L'escroc a utilisé un numéro de téléphone inconnu et lui a demandé de payer une rançon pouvant aller jusqu'à un million de dollars. L'arnaque à l'IA a été démasquée quelques minutes seulement après que Mme DeStefano a contacté sa fille. L'affaire fait l'objet d'une enquête policière et illustre le risque que les cybercriminels exploitent les capacités de génération de voix de l'IA.
Récemment, un escroc du nom de Gilbert Chikli a dû comparaître devant le tribunal pour s'être fait passer pour le ministre français des Affaires étrangères Jean-Yves le Drian afin d'exiger une rançon de particuliers fortunés et de dirigeants d'entreprise pour la libération d'otages français en Syrie. Ou encore, la journaliste indienne Rana Ayyub s'est fait implanter le visage dans des vidéos pornographiques, puis des criminels ont utilisé ces fausses vidéos pour la faire chanter.
L'entreprise américaine de cybersécurité McAfee a récemment publié une enquête intitulée « Usurpateurs artificiels », qui révèle que de nombreuses personnes ne parviennent pas à distinguer les voix réelles des fausses. L'enquête, menée auprès de 7 054 personnes dans neuf pays, dont les États-Unis et l'Inde, a révélé que de nombreuses personnes ont été victimes ou ont eu connaissance de cas de tromperie par des technologies de génération de voix par IA. Environ 70 % des personnes interrogées ont admis ne pas être capables de distinguer les voix réelles des voix générées par IA.
Selon Reuters , le secrétaire général de l'ONU, Antonio Guterres, a soutenu une proposition de certains dirigeants d'entreprises d'IA visant à créer un organisme international de surveillance de l'IA. « Ce sont les développeurs qui ont conçu l'IA générative qui tirent le plus fort la sonnette d'alarme. Nous devons prendre ces avertissements au sérieux », a-t-il déclaré. Il a également annoncé son intention de créer cette année un organisme consultatif de haut niveau sur l'IA.
Selon le magazine Organizer , M. Wasim Khaled, PDG de la société Blackbird.AI (États-Unis), la technologie utilisant l'IA pour imiter les voix est désormais quasiment impossible à distinguer des voix réelles. « Cela permet aux escrocs d'obtenir plus efficacement de l'argent et des informations auprès de leurs victimes », a-t-il déclaré.
« Il est désormais si facile de créer une voix qui semble réaliste que presque n’importe qui ayant une présence en ligne peut en devenir victime », a déclaré le professeur Hany Farid de l’Université de Californie (États-Unis), avertissant que ces escroqueries deviennent de plus en plus courantes.
Gal Tal-Hochberg, technologue chez Team8, une entreprise israélienne de cybersécurité, estime que nous approchons rapidement d'un moment où nous ne pourrons plus nous fier à tout ce que nous voyons en ligne. « Nous aurons besoin de nouvelles technologies pour savoir si notre interlocuteur est bien celui à qui nous parlons », a-t-il déclaré.
Thaïlandais
Source
Comment (0)