Nous vivons à l'ère de la révolution industrielle 4.0, où l'intelligence artificielle (IA) devient progressivement indispensable à de nombreux domaines de la vie sociale. Les médias, véritables passerelles d'information entre le public et les événements, ne peuvent échapper à cette tendance.
Mme Nguyen Thi Hai Van, directrice du Centre de formation au journalisme de l'Association des journalistes du Vietnam , lors de l'atelier sur l'IA. (Source : Association des journalistes du Vietnam) |
Pour tirer le meilleur parti des avantages apportés par l’IA, les communicateurs doivent se doter des connaissances nécessaires pour utiliser l’IA efficacement, tout en garantissant la fiabilité et l’éthique dans la transmission de l’information.
De la « sensation » de l’IA
Il est indéniable que l'IA (intelligence artificielle) est l'un des mots-clés les plus en vogue aujourd'hui. En septembre 2024, une recherche Google avec le mot-clé « IA » en 0,3 seconde a généré 15 milliards,9 milliards de résultats ; avec le mot-clé « outils d'IA », en 0,4 seconde, plus de 3 milliards,4 milliards de résultats ont été obtenus. Ces chiffres impressionnants témoignent de l'intérêt et de la couverture médiatique de l'IA et des outils basés sur l'IA à l'échelle mondiale.
De plus en plus d'outils d'IA apparaissent actuellement dans divers domaines, notamment celui des médias. Outre le célèbre ChatGPT, de nombreuses applications d'IA ont été développées dans un domaine spécifique et répondent à des tâches spécifiques. Il est facile d'en citer plusieurs, comme : Bing AI, Clause et Zapier Central pour les groupes de tâches Chatbot ; Jasper, Copy.ai et Anyword pour la création de contenu ; Descript, Wondershare et Runway pour la production et le montage vidéo ; DALL-E3, Midjourney et Stable Diffusion pour la création d'images ; Murf et AIVA pour le contenu audio, etc. Récemment, le géant Amazon a également présenté ses propres outils d'IA, Video Generator et Image Generator, dans le but de stimuler la créativité et d'apporter plus de valeur.
Bien que les outils d'IA soient très divers en termes d'échelle ou de niveau de spécialisation, la technologie a essentiellement deux choses en commun : les outils d'IA sont développés sur la base d'algorithmes et de données pour « former » les outils d'IA.
Contrôle éthique de l'utilisation de l'IA dans les médias
On ne peut nier les avantages des outils d'IA. Avec la rapidité des évolutions technologiques, on verra apparaître de plus en plus d'outils d'IA spécialisés, répondant aux tâches les plus simples comme les plus complexes du secteur des médias. Face à cette évolution fulgurante, de nombreuses questions se posent quant au contrôle éthique du développement et de l'utilisation des outils d'IA dans le secteur des médias. Que se passera-t-il si les algorithmes et les données de ces outils sont manipulés de manière préjudiciable à la communauté ? Qui garantit les droits de propriété intellectuelle sur les données d'entrée utilisées par ces outils d'IA pour leur formation ? Qui évalue leur niveau de nuisance ?
Existe-t-il une inégalité entre les personnes ayant accès aux outils d'IA et celles qui n'y ont pas accès pour une même tâche ? Des questions ont même été soulevées quant aux dommages potentiels incontrôlés causés par les outils d'IA, notamment dans des domaines sensibles pouvant affecter de nombreuses personnes à grande échelle, comme les médias et les réseaux sociaux.
Conscients des préoccupations susmentionnées, de nombreuses organisations, associations, gouvernements et même entreprises développant des outils d'IA ont publié des recommandations, des explications et même des codes de conduite relatifs à la question du contrôle éthique des technologies d'IA. Adoptée par 193 pays en 2021, la Déclaration sur l'éthique de l'intelligence artificielle (Recommandation de l'UNESCO, Organisation des Nations Unies pour l'éducation , la science et la culture) stipule clairement que « l'essor rapide de l'intelligence artificielle (IA) a créé de nombreuses opportunités à l'échelle mondiale, allant de l'aide au diagnostic médical à la facilitation des échanges humains via les réseaux sociaux et à l'amélioration de l'efficacité du travail grâce à l'automatisation des tâches. »
Cependant, ces changements rapides soulèvent également de profondes préoccupations éthiques. Les risques liés à l'IA ont aggravé les inégalités existantes, aggravant les préjudices causés à des groupes déjà défavorisés… ». Nous demandons donc à l'UNESCO de développer des outils pour soutenir les États membres, notamment la Méthodologie d'évaluation de l'état de préparation, un outil permettant aux gouvernements de dresser un tableau complet de leur degré de préparation à déployer l'IA de manière éthique et responsable pour tous leurs citoyens.
Dans le cadre de son approche mondiale, l'UNESCO a lancé l'Observatoire mondial de l'éthique et de la gouvernance de l'IA, qui, selon elle, « fournit des informations sur l'état de préparation des pays à adopter l'IA de manière éthique et responsable. Il héberge également le Laboratoire d'éthique et de gouvernance de l'IA, qui rassemble des contributions, des recherches percutantes, des outils et des pratiques positives sur un large éventail de questions éthiques liées à l'IA… »
Outre les organisations mondiales comme l'UNESCO, de nombreuses associations professionnelles travaillent également à l'élaboration de leurs propres normes. Par exemple, l'IABC (Association internationale des communications d'entreprise), qui compte des milliers de membres du monde entier, a élaboré un ensemble de principes régissant l'utilisation éthique de l'IA par les professionnels de la communication. Cet ensemble de principes vise à guider les membres de l'IABC quant à la pertinence de son Code de déontologie en matière d'IA. Ces lignes directrices sont susceptibles d'être mises à jour et complétées au fil du temps, parallèlement au développement de l'IA. Cet ensemble de principes comprend de nombreux points spécifiques auxquels les professionnels de la communication doivent se conformer, notamment :
Les ressources d'IA utilisées doivent être pilotées par des humains afin de créer des expériences positives et transparentes qui favorisent le respect et renforcent la confiance envers la profession des médias. Il est important de se tenir informé des opportunités et des risques professionnels liés aux outils d'IA. L'information doit être communiquée avec précision, objectivité et équité. Les outils d'IA peuvent être sujets à de nombreuses erreurs, incohérences et autres problèmes techniques. Cela nécessite un jugement humain pour vérifier de manière indépendante que le contenu généré par l'IA est exact, transparent et exempt de plagiat.
Protéger les informations personnelles et/ou confidentielles d'autrui et ne pas les utiliser sans son autorisation. Évaluer les résultats de son IA en fonction de l'engagement humain et de la compréhension de la communauté qu'elle vise à servir. Éliminer les biais autant que possible et être sensible aux valeurs et croyances culturelles d'autrui.
Doivent vérifier leurs propres productions de manière indépendante et avec la rigueur professionnelle nécessaire afin de garantir l'exactitude des documents, informations ou références de tiers, leur attribution et leur vérification étant conformes aux licences ou autorisations d'utilisation. Ne pas tenter de dissimuler ou de déguiser l'utilisation de l'IA dans leurs productions professionnelles. Reconnaître le caractère open source de l'IA et les enjeux liés à la confidentialité, notamment la saisie d'informations fausses, trompeuses ou mensongères.
Les entreprises qui possèdent, développent et commercialisent des outils d'IA sont celles qui en comprennent le mieux les tenants et aboutissants. Elles connaissent les algorithmes sous-jacents à leur fonctionnement et les données à partir desquelles ils sont entraînés. Par conséquent, ces entreprises doivent également fournir des informations sur les principes d'éthique du développement de l'IA. D'ailleurs, certaines entreprises s'intéressent à cette question.
Google s'engage à ne pas développer d'outils d'IA dans des domaines présentant un risque significatif de préjudice. Nous n'interviendrons que si nous estimons que les avantages l'emportent largement sur les risques et que nous intégrons des mesures de protection appropriées. Les armes ou autres technologies dont le but principal ou le déploiement est de causer ou de faciliter directement des blessures humaines. Les technologies qui collectent ou utilisent des informations à des fins de surveillance et qui violent les normes internationalement reconnues. Les technologies dont la finalité viole les principes généralement reconnus du droit international et des droits de l'homme.
Concernant la sécurité et la sûreté, Google s'engage : « Nous continuerons à développer et à mettre en œuvre des mesures de sécurité et de sûreté robustes afin d'éviter les conséquences imprévues et les risques de préjudice. Nous concevrons nos systèmes d'IA avec la prudence nécessaire et nous nous efforcerons de les développer conformément aux meilleures pratiques en matière de recherche sur la sécurité de l'IA. Nous intégrerons nos principes de confidentialité au développement et à l'utilisation de nos technologies d'IA. Nous offrirons des possibilités de notification et de consentement, encouragerons les architectures respectueuses de la vie privée et assurerons une transparence et des contrôles appropriés sur l'utilisation des données. »
À l'instar de Google, Microsoft a également publié une déclaration sur les principes et l'approche de l'IA, soulignant : « Nous nous engageons à ce que les systèmes d'IA soient développés de manière responsable et qu'ils inspirent confiance… ». De plus, d'une manière ou d'une autre, les grandes entreprises technologiques qui investissent massivement dans le développement d'outils d'IA, comme Amazon et OpenAI, ont également pris leurs propres engagements.
De nombreux exemples historiques ont démontré la dualité de la technologie, avec ses avantages et ses inconvénients. Après tout, bien qu'il s'agisse d'une plateforme technologique de haute technologie, l'IA repose toujours sur des algorithmes et des données développés et collectés par des humains ; parallèlement, la plupart des produits d'IA s'inscrivent dans les plans d'affaires des entreprises qui les possèdent.
Par conséquent, des risques potentiels existent toujours, tant du côté technique que de l'équipe de développement et de gestion des produits elle-même. Le problème réside dans l'ampleur de l'impact que les outils d'IA peuvent avoir sur la majorité, même sur le plan socio-économique. L'attention portée au contrôle éthique lors de l'utilisation de l'IA est un signe encourageant, avec la participation d'organisations internationales de premier plan comme les Nations Unies, de gouvernements, d'associations industrielles et, surtout, des unités de développement technologique.
Cependant, comme la liste des outils d'IA publie continuellement de nouvelles versions, chacune plus sophistiquée et complexe que la précédente, les codes, principes ou lignes directrices doivent également être mis à jour et complétés en temps opportun, et en outre, doivent être proactifs pour prévenir, limiter et contrôler les développeurs et les utilisateurs de produits dans un cadre où la capacité de se conformer au contrôle éthique dans la technologie de l'IA en général et les travailleurs des médias en particulier peut atteindre la plus grande efficacité.
Source
Comment (0)