Vietnam.vn - Nền tảng quảng bá Việt Nam

Le côté obscur des applications de l’intelligence artificielle

Người Lao ĐộngNgười Lao Động28/02/2024


Après le lancement de ChatGPT, la première application d'IA par la startup OpenAI, fin 2022, une vague de concurrence s'est déclenchée pour développer des applications d'IA, notamment l'IA générative, apportant de nombreux avantages dans tous les domaines de la vie. Cependant, cela comporte également de nombreux risques.

Atteinte à la vie privée

Ces dernières années, de nombreuses organisations et particuliers ont subi des pertes lorsque des cybercriminels ont utilisé l'IA pour créer des clips vidéo imitant l'image et la voix de personnes réelles. L'astuce du deepfake en est un exemple.

Selon le rapport sur la fraude à l'identité publié par Sumsub fin novembre 2023, les escroqueries par deepfake ont décuplé à l'échelle mondiale en 2022-2023. C'est également à cette époque que les applications d'intelligence artificielle ont explosé dans le monde .

Status Labs souligne que les deepfakes ont eu un impact majeur sur la culture, la vie privée et la réputation personnelle. L'attention portée aux deepfakes s'est principalement portée sur la pornographie mettant en scène des célébrités, la revenge porn, la désinformation, les fake news, le chantage et les escroqueries. Par exemple, en 2019, une entreprise énergétique américaine a été escroquée de 243 000 dollars par un pirate informatique qui a falsifié l'image et la voix de ses dirigeants et demandé à ses employés de transférer de l'argent à des partenaires.

Selon Reuters, en 2023, environ 500 000 vidéos et audios Deepfake ont été partagés sur les réseaux sociaux à travers le monde. Outre les Deepfakes utilisés pour le plaisir, des individus malintentionnés ont recours à des astuces pour arnaquer la communauté. Selon certaines sources, en 2022, les arnaques Deepfake auraient causé des pertes pouvant atteindre 11 millions de dollars dans le monde.

De nombreux experts en technologies ont mis en garde contre les effets négatifs de l'IA, notamment en matière de droits de propriété intellectuelle et d'authenticité, ainsi que contre les litiges de propriété intellectuelle entre les « œuvres » créées par l'IA. Par exemple, une personne demande à une application d'IA de dessiner un tableau sur un thème précis, tandis qu'une autre demande à l'IA de faire de même, ce qui donne lieu à des tableaux présentant de nombreuses similitudes.

Cela risque fort de donner lieu à des litiges de propriété. Cependant, à ce jour, aucune décision n'a été prise au niveau mondial concernant la reconnaissance du droit d'auteur pour les contenus générés par l'IA (que ce soit pour les personnes qui commandent des IA créatives ou pour les entreprises qui développent des applications d'IA).

Một hình ảnh được tạo bởi ứng dụng AI

Une image générée par une application d'IA

Difficile de distinguer le vrai du faux

Le contenu généré par l'IA peut-il donc porter atteinte au droit d'auteur ? D'un point de vue technologique, le contenu généré par l'IA est synthétisé par des algorithmes à partir de données sur lesquelles il a été entraîné. Ces bases de données sont collectées par les développeurs d'applications d'IA auprès de nombreuses sources, principalement issues des bases de connaissances disponibles sur Internet. Nombre de ces œuvres sont protégées par le droit d'auteur de leurs propriétaires.

Le 27 décembre 2023, le New York Times (États-Unis) a poursuivi OpenAI (avec ChatGPT) et Microsoft, affirmant que des millions de leurs articles avaient été utilisés pour entraîner les chatbots et les plateformes d'IA de ces deux entreprises. Il est prouvé que du contenu créé par les chatbots à la demande des utilisateurs est identique ou similaire au contenu des articles. Ce journal ne peut ignorer que sa « propriété intellectuelle » est utilisée par des entreprises à des fins lucratives.

Le New York Times est le premier grand journal américain à intenter une action en justice pour atteinte aux droits d'auteur liée à l'IA. Il est possible que d'autres journaux lui emboîtent le pas, surtout après le succès du New York Times.

Auparavant, OpenAI avait conclu un accord de licence de droits d'auteur avec l'agence de presse Associated Press en juillet 2023 et avec Axel Springer - un éditeur allemand propriétaire de deux journaux Politico et Business Insider - en décembre 2023.

L'actrice Sarah Silverman a également été impliquée dans deux procès en juillet 2023, accusant Meta et OpenAI d'avoir utilisé ses mémoires comme manuel de formation pour des programmes d'IA. De nombreux auteurs ont également exprimé leur inquiétude lorsqu'il a été révélé que des systèmes d'IA avaient intégré des dizaines de milliers de livres dans leurs bases de données, ce qui a donné lieu à des poursuites judiciaires de la part d'auteurs tels que Jonathan Franzen et John Grisham.

Pendant ce temps, le service photo Getty Images a également poursuivi une société d'IA pour avoir créé des images basées sur des invites textuelles en raison de l'utilisation non autorisée du matériel visuel protégé par le droit d'auteur de la société...

Les utilisateurs peuvent se heurter à des problèmes de droits d'auteur lorsqu'ils utilisent « par négligence » des « œuvres » créées par des outils d'IA. Les experts recommandent toujours d'utiliser les outils d'IA uniquement pour la recherche, la collecte de données et la formulation de suggestions à des fins de référence.

D'un autre côté, les applications d'IA perturbent les utilisateurs lorsqu'ils ne parviennent pas à distinguer le vrai du faux d'un contenu. Les éditeurs et les rédactions de journaux peuvent être déconcertés lors de la réception de manuscrits. Les enseignants ont également du mal à déterminer si les travaux des élèves utilisent l'IA ou non.

La communauté devra désormais redoubler de vigilance, car on ne sait plus distinguer le vrai du faux. Par exemple, il sera difficile pour le commun des mortels de détecter si une photo a été « enchantée » ou modifiée par l'IA.

Des réglementations juridiques sur l’utilisation de l’IA sont nécessaires

En attendant des outils applicatifs capables de détecter les interventions de l'IA, les agences de gestion doivent rapidement disposer d'une réglementation claire et précise sur l'utilisation de cette technologie pour la création de contenus privés. Cette réglementation doit démontrer à tous que les contenus et les œuvres ont été manipulés par l'IA, par exemple en apposant un filigrane par défaut sur les images manipulées par l'IA.



Source : https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm

Comment (0)

No data
No data

Même sujet

Même catégorie

Village au sommet de la montagne à Yen Bai : des nuages ​​flottants, beaux comme un pays des fées
Un village caché dans la vallée de Thanh Hoa attire les touristes pour découvrir
La cuisine d'Ho Chi Minh-Ville raconte l'histoire des rues
Vietnam - La Pologne peint une « symphonie de lumière » dans le ciel de Da Nang

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit