Q : Qu’est-ce qu’un modèle d’intelligence artificielle (IA) et quels types de modèles sont populaires aujourd’hui ?
Réponse : Pour fonctionner, l’IA a besoin d’un « cerveau » appelé modèle d’IA – un système de modèles mathématiques et d’algorithmes entraînés à partir d’énormes quantités de données. C’est ce modèle qui permet à la machine d’apprendre des règles, d’analyser des informations, de faire des prédictions ou de créer du nouveau contenu…
En fonction des entrées et des sorties, les modèles d'IA actuels peuvent être divisés en plusieurs groupes. Le groupe le plus populaire aujourd'hui est celui du texte à texte, où les utilisateurs saisissent du texte et l'IA génère une réponse textuelle appropriée (chatbots tels que ChatGPT, Gemini, Claude…). Le groupe du texte à image propose une description textuelle en entrée et une image générée par l'IA en sortie (Midjourney, DALL·E…).
Vient ensuite le groupe texte-audio, qui convertit le texte en paroles ou en effets sonores ; le groupe image-texte, qui utilise les images comme entrée pour l'IA afin de générer des descriptions ou des analyses ; le groupe image-image convertit les images en d'autres images, souvent utilisées pour des tâches telles que la restauration, la conversion de style ; le groupe image- vidéo , l'IA créera des vidéos de mouvement simulées à partir d'images fixes ; le groupe vidéo-texte permet l'analyse ou la synthèse du contenu des vidéos, appliquées dans les systèmes d'extraction d'informations, l'annotation vidéo ou l'analyse des données de surveillance.
Un groupe particulièrement performant aujourd'hui est le text-to-video, qui convertit le texte en vidéo. Avec ce type de modèle, les utilisateurs saisissent simplement une courte description, et le système d'IA génère une vidéo adaptée au contexte, à l'action, à l'éclairage et même à l'angle de prise de vue.
Des outils de premier plan tels que Pika Labs, Sora (OpenAI) et, plus récemment, la communauté technologique mondiale, dont le Vietnam, ont accordé une attention particulière à Veo 3, un outil développé par Google DeepMind. Les clips créés par Veo 3 sont d'un réalisme quasi absolu, proches du niveau des cinéastes professionnels, suscitant l'admiration de nombreux spectateurs.
Créer des vidéos est devenu aussi simple qu'écrire un paragraphe, ce qui a conduit à l'émergence de nombreux contenus « poubelle » créés uniquement pour attirer l'attention, notamment des vidéos sensationnalistes, utilisant un langage vulgaire ou contenant de fausses informations. Plus dangereux encore, des outils comme Veo 3, bien que n'étant pas un outil spécialisé dans le deepfake, peuvent néanmoins être exploités pour créer de fausses images ou voix sophistiquées de personnes réelles, trompant ainsi facilement les spectateurs, portant atteinte à la réputation personnelle, à la sécurité des informations et à l'ordre social, augmentant ainsi le risque de fraude dans le cyberespace (Deepfake est une technologie qui utilise l'IA pour créer de fausses images, vidéos et sons si réalistes que les utilisateurs ont du mal à les distinguer…).
Plus inquiétant encore, de nombreux contenus déformés et faux sont créés et diffusés à une vitesse vertigineuse, pénétrant les réseaux sociaux sans vérification ni contrôle. Les enfants et les adolescents sont les plus vulnérables et les plus vulnérables. Souvent incapables de distinguer le vrai du faux, ils sont très réceptifs aux contenus toxiques, ce qui a des conséquences à long terme sur leur perception et leur comportement.
Q : Compte tenu du développement rapide d’outils comme Veo 3, quelle est la solution pour limiter efficacement l’utilisation de l’IA à des fins inappropriées ?
Réponse : On constate que le système juridique et de gestion actuel est encore plus lent que le rythme de développement de l’IA, ce qui crée de nombreuses lacunes juridiques et des risques imprévisibles. Cela nécessite la mise en place rapide d’un cadre de gestion proactif, flexible et synchrone, tout en sensibilisant le public à l’utilisation responsable de l’IA.
Le développement responsable de l'IA dépend avant tout de nous, ceux qui la créent, la gèrent et l'utilisent. Innovation et gestion ne doivent pas être perçues comme deux pôles opposés, mais comme les deux facettes d'un processus maintes fois évoqué. Par conséquent, d'une part, nous devons être ouverts au développement technologique et, d'autre part, établir proactivement des principes éthiques et des cadres juridiques adaptés au nouveau contexte.
Au Vietnam, en plus de continuer à améliorer les institutions, un certain nombre de solutions ont été évoquées récemment, comme la proposition du Comité d'éthique de l'IA de l'Association vietnamienne des logiciels et des services informatiques (VINASA) de créer un code de conduite éthique de l'IA, pour fixer des limites comportementales tant pour les développeurs que pour les utilisateurs.
Parallèlement à cela, il existe l’idée de former un ensemble de langages de données ouvertes standard nationaux, dans le but d’aider les développeurs d’IA nationaux et étrangers à avoir une base pour se conformer aux facteurs politiques , culturels, juridiques et historiques du Vietnam.
Proposer une classification et un étiquetage des produits d'IA est également une idée viable. Les étiquettes d'IA devraient être obligatoires et pourraient être catégorisées selon différents niveaux d'intervention : du montage partiel à la production complète, ou par contenu, comme c'est déjà le cas pour les jeux et les films.
Parallèlement, il est nécessaire de mettre en place un mécanisme clair de contrôle a posteriori, associant la responsabilité à la finalité. D'un point de vue social, l'éducation à la culture numérique pour l'ensemble de la population, en particulier les enfants et les adolescents, est essentielle ; contribuer à l'identification des contenus préjudiciables et appliquer des règles de vérification des informations sont des solutions fondamentales dans une société de plus en plus perturbée par les contenus virtuels.
Source : https://nhandan.vn/kiem-soat-mat-trai-cua-tri-tue-nhan-tao-post886971.html
Comment (0)