Nous vivons à l'ère de la quatrième révolution industrielle, où l'intelligence artificielle (IA) devient progressivement une composante indispensable de nombreux aspects de la vie sociale. Les médias, en tant que vecteurs d'information entre le public et l'actualité, ne peuvent rester à l'écart de cette évolution.
| Mme Nguyen Thi Hai Van, directrice du Centre de formation au journalisme de l'Association des journalistes du Vietnam , lors de l'atelier sur les technologies d'intelligence artificielle. (Source : Association des journalistes du Vietnam) |
Pour tirer pleinement parti des avantages offerts par l'IA, les professionnels de la communication doivent acquérir les connaissances nécessaires pour utiliser efficacement l'IA, tout en garantissant la fiabilité et l'éthique de la transmission de l'information.
De la « popularité » de l'IA
Il est indéniable que l'IA (Intelligence Artificielle) figure parmi les mots-clés les plus recherchés actuellement. En septembre 2024, une recherche sur Google avec le mot-clé « IA » a généré 15,9 milliards de résultats en 0,3 seconde ; avec le mot-clé « outils d'IA », plus de 3,4 milliards de résultats ont été obtenus en 0,4 seconde. Ces chiffres impressionnants témoignent de l'engouement mondial pour l'IA et les outils basés sur l'IA.
Actuellement, les outils d'IA se multiplient dans divers domaines, y compris celui des médias. Outre le très connu ChatGPT, de nombreuses applications d'IA ont été développées dans un domaine spécialisé, pour des tâches spécifiques. On peut citer aisément : Bing AI, Clause et Zapier Central pour les chatbots ; Jasper, Copy.ai et Anyword pour la création de contenu ; Descript, Wondershare et Runway pour la production et le montage vidéo ; DALL-E3, Midjourney et Stable Diffusion pour la création d'images ; Murf et AIVA pour le contenu audio, etc. Plus récemment, le géant Amazon a également présenté ses outils d'IA, Video Generator et Image Generator, avec pour objectif de « stimuler la créativité et d'apporter une plus grande valeur ajoutée ».
Bien que les outils d'IA soient très divers en termes d'échelle ou de niveau de spécialisation, cette technologie a essentiellement deux points communs : les outils d'IA sont développés sur la base d'algorithmes et de données pour « entraîner » les outils d'IA.
Contrôle éthique de l'utilisation de l'IA dans les médias
Il est indéniable que les outils d'IA offrent de nombreux avantages. Avec le rythme rapide des évolutions technologiques, on verra apparaître des outils d'IA spécialisés de plus en plus nombreux, capables de répondre à des tâches des plus simples aux plus complexes dans le secteur des médias. Face à ce développement fulgurant, de nombreuses questions se posent quant au contrôle éthique du développement et de l'utilisation des outils d'IA dans ce secteur. Que se passera-t-il si les algorithmes et les données de ces outils sont manipulés de manière préjudiciable à la communauté ? Qui garantit les droits de propriété intellectuelle sur les données d'entrée utilisées pour l'apprentissage de l'IA ? Qui évalue le niveau de préjudice causé ?
Existe-t-il une inégalité entre les personnes ayant accès aux outils d'IA et celles qui n'y ont pas accès pour une même tâche ? Des questions ont même été soulevées quant aux risques de dommages incontrôlés liés à ces outils, notamment dans des domaines sensibles susceptibles d'affecter un grand nombre de personnes, comme les médias et les réseaux sociaux.
Face à ces préoccupations, de nombreuses organisations, associations, gouvernements, voire des entreprises développant des outils d'IA, ont publié des recommandations, des explications et même des codes de conduite relatifs à l'éthique de l'intelligence artificielle. Adoptée par 193 pays en 2021, la Déclaration sur l'éthique de l'intelligence artificielle – Recommandation de l'UNESCO – l'Organisation des Nations Unies pour l'éducation , la science et la culture – affirme clairement que « l'essor rapide de l'intelligence artificielle (IA) a créé de nombreuses opportunités à l'échelle mondiale, allant de l'aide au diagnostic médical au maintien des liens humains via les réseaux sociaux, en passant par l'amélioration de la productivité du travail grâce à l'automatisation des tâches. »
Toutefois, ces changements rapides soulèvent également de profondes questions éthiques. Les risques associés à l’IA ont commencé à aggraver les inégalités existantes, causant ainsi un préjudice supplémentaire aux groupes déjà défavorisés… ». Et, partant, « demande à l’UNESCO d’élaborer des outils pour aider les États membres, notamment la Méthodologie d’évaluation de l’état de préparation, un outil permettant aux gouvernements d’établir un tableau complet de leur capacité à déployer l’IA de manière éthique et responsable pour tous leurs citoyens.
Dans le cadre de son approche globale, l’UNESCO a lancé l’Observatoire mondial de l’éthique et de la gouvernance de l’IA, qui, selon elle, « fournit des informations sur la capacité des pays à adopter l’IA de manière éthique et responsable. Il héberge également le Laboratoire d’éthique et de gouvernance de l’IA, qui rassemble des contributions, des recherches à fort impact, des outils et des bonnes pratiques sur un large éventail de questions d’éthique liées à l’IA… »
Outre les organisations internationales telles que l'UNESCO, de nombreuses associations professionnelles s'emploient également à élaborer leurs propres normes. Par exemple, l'IABC (Association internationale des communications d'entreprise), qui compte des milliers de membres à travers le monde, a développé un ensemble de principes encadrant l'utilisation éthique de l'IA par les professionnels de la communication. Ces principes visent à guider les membres de l'IABC quant à la pertinence du Code de déontologie de l'IABC pour l'IA. Ces lignes directrices pourront être mises à jour et complétées au fil du temps, parallèlement à l'évolution de la technologie de l'IA. Parmi ces principes figurent de nombreux points spécifiques auxquels un professionnel de la communication doit se conformer, tels que :
Les ressources d'IA utilisées doivent être supervisées par l'humain afin de créer des expériences positives et transparentes qui favorisent le respect et renforcent la confiance dans la profession médiatique. Il est important de rester informé des opportunités et des risques professionnels que présentent les outils d'IA. L'information doit être communiquée avec exactitude, objectivité et impartialité. Les outils d'IA peuvent être sujets à de nombreuses erreurs, incohérences et autres problèmes techniques. Cela nécessite un jugement humain pour vérifier indépendamment que le contenu généré par l'IA est exact, transparent et exempt de plagiat.
Protéger les informations personnelles et/ou confidentielles d'autrui et ne pas les utiliser sans leur autorisation. Évaluer les résultats de son IA en fonction de l'implication humaine et de la compréhension de la communauté qu'elle vise à servir. Éliminer les biais autant que possible et faire preuve de sensibilité aux valeurs culturelles et aux croyances d'autrui.
Ils doivent vérifier et valider leurs propres travaux avec la rigueur professionnelle requise afin de s'assurer que les documents, informations ou références de tiers sont exacts, correctement attribués et vérifiés, et dûment autorisés. Ils ne doivent en aucun cas dissimuler l'utilisation de l'IA dans leurs travaux. Ils doivent être conscients du caractère open source de l'IA et des enjeux liés à la confidentialité, notamment la saisie d'informations fausses, trompeuses ou mensongères.
Les entreprises qui possèdent, développent et commercialisent des outils d'IA en maîtrisent mieux que quiconque les rouages. Elles connaissent les algorithmes sous-jacents à leur fonctionnement et les données utilisées pour leur entraînement. Par conséquent, elles doivent également fournir des informations sur les principes éthiques du développement de l'IA. De fait, certaines entreprises s'intéressent à cette question.
Google s'engage à ne pas développer d'outils d'IA pour les domaines présentant un risque important de préjudice. Nous n'irons de l'avant que lorsque nous estimons que les avantages l'emportent largement sur les risques et que nous intégrons les garanties appropriées. Sont notamment concernées les armes ou autres technologies dont la finalité principale ou le déploiement vise à causer ou à faciliter directement des blessures humaines ; les technologies qui collectent ou utilisent des informations à des fins de surveillance en violation des normes internationalement reconnues ; et les technologies dont la finalité contrevient aux principes généralement admis du droit international et des droits de l'homme.
En matière de sécurité, Google s'engage : « Nous continuerons à développer et à mettre en œuvre des mesures de sécurité robustes afin d'éviter tout incident susceptible d'entraîner des risques. Nous concevrons nos systèmes d'IA avec la prudence requise et veillerons à les développer conformément aux meilleures pratiques en matière de recherche sur la sécurité de l'IA. Nous intégrerons nos principes de protection de la vie privée au développement et à l'utilisation de nos technologies d'IA. Nous offrirons des possibilités d'information et de consentement, encouragerons les architectures respectueuses de la vie privée et assurerons une transparence et un contrôle appropriés de l'utilisation des données. »
À l'instar de Google, Microsoft a également publié une déclaration sur ses principes et son approche en matière d'IA, soulignant : « Nous nous engageons à ce que les systèmes d'IA soient développés de manière responsable et de façon à garantir la confiance du public… ». Par ailleurs, de grandes entreprises technologiques investissant massivement dans le développement d'outils d'IA, telles qu'Amazon et OpenAI, ont également pris des engagements, d'une manière ou d'une autre.
L'histoire regorge d'exemples illustrant la dualité de la technologie, avec ses aspects positifs et négatifs. En effet, bien qu'il s'agisse d'une plateforme technologique de pointe, l'IA repose toujours sur des algorithmes et des données développés et collectés par l'humain ; or, la plupart des produits d'IA s'inscrivent dans les stratégies commerciales des entreprises qui les possèdent.
Par conséquent, des risques potentiels existent toujours, tant sur le plan technique que du côté de l'équipe de développement et de gestion du produit elle-même. Le problème réside dans l'ampleur de l'impact que les outils d'IA peuvent avoir sur la majorité de la population, voire sur le plan socio-économique d'une communauté. L'attention portée en temps opportun au contrôle éthique lors de l'utilisation de l'IA est un signe encourageant, avec la participation d'organisations internationales de grande envergure telles que les Nations Unies, des gouvernements, des associations professionnelles et, surtout, des unités de développement technologique elles-mêmes.
Cependant, étant donné que la liste des outils d'IA publie continuellement de nouvelles versions, chacune plus sophistiquée et complexe que la précédente, les codes, principes ou lignes directrices doivent également être mis à jour et complétés en temps opportun, et de plus, doivent être proactifs dans la prévention, la limitation et le contrôle des développeurs et des utilisateurs de produits dans un cadre où la capacité de se conformer au contrôle éthique dans la technologie de l'IA en général et dans les médias en particulier peut atteindre la plus grande efficacité.
Source










Comment (0)