NAACL 2025 (Conférence annuelle du chapitre des Nations des Amériques de l'Association pour la linguistique computationnelle) est le principal forum scientifique prestigieux au monde dans le domaine du traitement du langage naturel et de la linguistique computationnelle.
Selon les informations de Viettel dans l’après-midi du 16 mai, l’explosion d’Internet et des réseaux sociaux a rendu le contenu généré par les utilisateurs de plus en plus populaire ; Dans le même temps, cela conduit à une vague de fausses nouvelles et d’informations non officielles qui se propagent largement. Ces fausses informations non seulement créent de la confusion chez les personnes dans des domaines sensibles tels que la santé, les catastrophes naturelles, les politiques publiques, etc., mais entraînent également de graves conséquences telles que : des dommages économiques, une perte de réputation organisationnelle et des menaces à la sécurité nationale.
« Auparavant, ces informations n'avaient qu'un impact ponctuel et limité. Aujourd'hui, elles deviennent de plus en plus dangereuses lorsqu'elles sont intégrées aux données d'entrée des systèmes d'intelligence artificielle (IA). Lors de la recherche et de la collecte d'informations pour répondre aux utilisateurs, des systèmes tels que les chatbots et les assistants virtuels sont tout à fait capables d'utiliser, de créer ou de diffuser de fausses informations s'ils ne disposent pas de la capacité d'auto-vérification », a déclaré un représentant de Viettel.
La vérification des faits est le processus de vérification de la véracité ou de la fausseté d’une information. Par exemple, l’objectif de la vérification de l’affirmation « La NASA a trouvé de la vie sur Mars » est-il de vérifier si cette information est basée sur des faits publiés ? par le biais de sources fiables telles que les journaux, les données scientifiques ou les bases de connaissances. Pour auto-vérifier les informations, les systèmes d’IA doivent être capables de comprendre des phrases, de trouver des informations pertinentes et de tirer des conclusions logiques basées sur des données objectives.
VeGraph (Verify-in-the-Graph) est une méthode de vérification d'informations recherchée, développée et présentée par une équipe d'ingénieurs du Viettel Data Services and Artificial Intelligence Center (Viettel AI) à NAACL 2025 - l'une des 3 conférences internationales les plus prestigieuses sur le traitement du langage naturel. Les résultats expérimentaux sur deux ensembles de données de validation populaires, HoVer et FEVEROUS, montrent que VeGraph améliore la précision de 2 à 5 % par rapport aux méthodes existantes.
Selon les experts en IA de Viettel, la plupart des méthodes actuelles de vérification des informations ont encore du mal à gérer les déclarations ambiguës, métaphoriques ou multicouches, qui sont souvent utilisées pour « camoufler » de fausses informations ; Dans le même temps, il n’est pas possible d’expliquer clairement pourquoi un contenu est considéré comme faux, ce qui rend difficile pour les utilisateurs de faire confiance aux résultats. De nombreuses méthodes s’appuient également fortement sur de grands modèles de langage (LLM) qui n’ont pas la capacité de vérifier avec des sources de connaissances faisant autorité, ce qui entraîne le risque de générer de fausses conclusions, également appelées « hallucinations ».
Contrairement aux outils qui ne font que des inférences internes au sein du modèle, VeGraph sépare de manière proactive la demande de vérification des informations en petites propositions, puis la compare à des références fiables telles que des documents juridiques, des bases de données gouvernementales , des documents spécialisés, etc. L'ensemble du processus de vérification est systématisé en étapes claires, ce qui facilite le suivi et la vérification par les utilisateurs, augmentant ainsi la précision et la transparence - des facteurs de plus en plus importants dans les applications d'IA. Cette fonctionnalité permet également aux organisations d’ajuster et d’améliorer rapidement le système lorsque cela est nécessaire.
Visant un environnement numérique transparent et sécurisé, VeGraph est très apprécié pour son application pratique. Outre la possibilité de s'intégrer dans des systèmes d'IA pour augmenter la précision et la fiabilité, cette technologie peut être développée en un système de vérification d'informations dans de nombreux domaines tels que la médecine, le journalisme, le droit ou la gestion de l'État... Grâce à cela, les gens peuvent auto-vérifier des informations importantes qui nécessitent une grande authenticité comme l'actualité, les informations sur les médicaments, les vaccins, les produits pharmaceutiques ou les réglementations légales...
À l’avenir, VeGraph sera étendu pour gérer divers formats de données tels que des images, des vidéos, de l’audio, etc., reconnaître des formes de langage complexes telles que des métaphores, des implications et intégrer des graphiques de connaissances pour améliorer les capacités de raisonnement.
Cette année, NAACL 2025 a attiré un nombre record d'articles de recherche, atteignant plus de 3 000, avec un taux d'acceptation très compétitif pour les articles principaux (environ 22 %), rassemblant les recherches les plus révolutionnaires. NAACL 2025 se concentre spécifiquement sur les avancées révolutionnaires dans le développement de grands modèles linguistiques, le traitement du langage naturel interculturel et multilingue, les capacités d'inférence émergentes et l'IA responsable.
Source : https://doanhnghiepvn.vn/cong-nghe/khi-ai-biet-kiem-chung-su-that-buoc-tien-moi-tu-viettel-ai-tai-naacl-2025/20250519080205067
Comment (0)