Après le lancement par la startup OpenAI de sa première application d'IA, ChatGPT, fin 2022, une véritable course au développement d'applications d'IA s'est engagée, notamment l'IA générative, apportant de nombreux avantages dans tous les domaines de la vie. Cependant, cela comporte également de nombreux risques.
Atteinte à la vie privée
Ces dernières années, de nombreuses organisations et personnes ont subi des pertes lorsque des cybercriminels ont utilisé l'intelligence artificielle pour créer des vidéos falsifiant les images et les voix de personnes réelles. Un exemple est la technique du « deepfake », qui consiste à rendre le faux réel.
Selon le rapport sur la fraude d'identité publié par Sumsub fin novembre 2023, les escroqueries par deepfake ont été multipliées par 10 dans le monde entre 2022 et 2023. C'est également à cette période que les applications d'intelligence artificielle ont connu une explosion mondiale .
Status Labs souligne que les deepfakes ont un impact majeur sur la culture, la vie privée et la réputation personnelle. L'actualité et l'attention médiatique autour des deepfakes se concentrent principalement sur la pornographie de célébrités, la vengeance pornographique, la désinformation, les fausses nouvelles, le chantage et les escroqueries. Par exemple, en 2019, une entreprise énergétique américaine a été victime d'une fraude de 243 000 $ : un pirate informatique avait usurpé l'image et la voix de ses dirigeants et avait demandé à ses employés de transférer de l'argent à des partenaires.
L'agence Reuters a rapporté qu'en 2023, environ 500 000 contenus deepfake (vidéos et enregistrements audio) ont été partagés sur les réseaux sociaux à travers le monde. Outre les deepfakes utilisés à des fins ludiques, certains individus malveillants les utilisent pour tromper la communauté. Selon certaines sources, en 2022, les escroqueries liées aux deepfakes auraient causé des pertes estimées à 11 millions de dollars américains à travers le monde.
De nombreux experts en technologies ont mis en garde contre les effets négatifs de l'IA, notamment en matière de droits de propriété intellectuelle et d'authenticité, et plus particulièrement contre les litiges de propriété intellectuelle concernant les « œuvres » créées par l'IA. Par exemple, si une personne demande à une application d'IA de réaliser un dessin sur un thème précis, et qu'une autre personne fait de même, il en résultera des œuvres présentant de nombreuses similitudes.
Cela risque fort d'entraîner des litiges en matière de propriété intellectuelle. Or, à ce jour, la communauté internationale n'a pas encore tranché sur la reconnaissance du droit d'auteur pour les contenus générés par l'IA (qu'il s'agisse de la reconnaissance de la paternité des créations des particuliers qui commandent des IA ou des entreprises qui développent des applications d'IA).
Une image générée par une application d'IA
Difficile de distinguer le vrai du faux
Le contenu généré par l'IA peut-il enfreindre le droit d'auteur ? Techniquement, ce contenu est synthétisé par des algorithmes à partir de données ayant servi à son apprentissage. Ces bases de données sont collectées par les développeurs d'applications d'IA auprès de nombreuses sources, principalement la base de connaissances en ligne. Nombre de ces œuvres sont protégées par le droit d'auteur.
Le 27 décembre 2023, le New York Times (États-Unis) a porté plainte contre OpenAI (via ChatGPT) et Microsoft, les accusant d'avoir utilisé des millions de ses articles pour entraîner les chatbots et les plateformes d'intelligence artificielle de ces deux entreprises. Il s'avère, selon le journal, que certains contenus créés par des chatbots à la demande des utilisateurs sont identiques ou similaires à ceux des articles. Le journal ne peut ignorer l'utilisation abusive de sa propriété intellectuelle par des entreprises à des fins lucratives.
Le New York Times est le premier grand quotidien américain à intenter une action en justice pour violation de droits d'auteur liée à l'intelligence artificielle. Il est possible que d'autres journaux suivent son exemple, notamment après le succès du New York Times.
Auparavant, OpenAI avait conclu un accord de licence de droits d'auteur avec l'agence de presse Associated Press en juillet 2023 et avec Axel Springer, l'éditeur allemand propriétaire des journaux Politico et Business Insider, en décembre 2023.
L'actrice Sarah Silverman s'est également jointe à une action en justice en juillet 2023, accusant Meta et OpenAI d'avoir utilisé ses mémoires comme texte d'entraînement pour des programmes d'intelligence artificielle. De nombreux écrivains ont également exprimé leur inquiétude lorsqu'il a été révélé que des systèmes d'IA avaient intégré des dizaines de milliers de livres dans leurs bases de données, ce qui a conduit à des poursuites judiciaires de la part d'auteurs tels que Jonathan Franzen et John Grisham.
Par ailleurs, le service de photographie Getty Images a également porté plainte contre une société d'intelligence artificielle pour avoir créé des images à partir de requêtes textuelles, en raison d'une utilisation non autorisée de son matériel photographique protégé par le droit d'auteur...
Les utilisateurs peuvent s'exposer à des problèmes de droits d'auteur lorsqu'ils utilisent « par négligence » des « œuvres » qu'ils ont demandé à des outils d'IA de « créer ». Les experts recommandent systématiquement d'utiliser les outils d'IA uniquement à des fins de recherche, de collecte de données et de suggestions de référence.
En revanche, les applications d'IA peuvent induire les utilisateurs en erreur lorsqu'ils ne parviennent pas à distinguer le vrai du faux dans un contenu. Les éditeurs et les rédactions peuvent être désorientés à la réception de manuscrits. Les enseignants ont également du mal à savoir si les travaux de leurs élèves font appel à l'IA.
La communauté devra désormais redoubler de vigilance, car il est difficile de distinguer le vrai du faux. Par exemple, il sera compliqué pour le commun des mortels de détecter si une photo a été retouchée ou modifiée par une intelligence artificielle.
Des réglementations juridiques sur l'utilisation de l'IA sont nécessaires
En attendant des outils d'application capables de détecter l'intervention de l'IA, les organismes de gestion doivent rapidement se doter d'une réglementation juridique claire et précise concernant l'utilisation de cette technologie pour la création de contenus privés. Cette réglementation doit permettre à tous de constater l'intervention de l'IA dans un contenu ou une œuvre, par exemple en apposant systématiquement un filigrane sur les images modifiées par cette technologie.
Source : https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm






Comment (0)