
Selon M. Lam, Il existe des risques très réels et actuels, tels que : l’IA est exploitée pour falsifier et manipuler l’information, commettre des fraudes et provoquer des divisions sociales ; remplacer la main-d’œuvre et accroître les inégalités ; déformer les valeurs culturelles et intellectuelles ; et menacer la sécurité nationale, la défense et la souveraineté numérique.
Le plus inquiétant , M. Lam peur Ce n'est pas ce que l'IA fait sur commande humaine qui importe, mais ce qu'elle peut faire lorsqu'elle échappe à tout contrôle humain. D'un point de vue scientifique , si un jour l'IA se fixe ses propres objectifs, interprète les tâches d'une manière contraire aux intérêts humains, ou considère même les humains comme des « risques », que se passera-t-il ? Un système superintelligent pourrait-il émerger, percevant les humains comme de simples « variables » dans son algorithme d'optimisation ?
« Les récits de science-fiction où l'IA domine les humains ne sont pas destinés à nous effrayer, mais à nous rappeler que tout progrès artificiel peut trahir son objectif initial s'il n'est pas conçu dès le départ selon des valeurs éthiques solides. Et l'histoire a prouvé que toute technologie, lorsqu'elle échappe à tout contrôle, peut entraîner des conséquences dont l'humanité doit payer le prix fort », a déclaré M. Lam.
Ces risques soulignent l’urgence de mettre en place un cadre juridique suffisamment solide pour que l’IA puisse se développer dans la bonne direction et en toute sécurité pour la société. Donc Pour que la loi soit véritablement complète et visionnaire, M. Lam a proposé un ajout essentiel : considérer l’IA comme un « être humain nouveau-né ». Une entité intellectuelle, mais encore innocente . Ne pas connaître la loi, ne pas comprendre l'éthique et les bonnes manières, n'avoir aucune valeur culturelle et ne pas distinguer le bien du mal si cela ne leur a pas été enseigné. Dans cette optique, si l'on considère l'IA comme une entité émergente, notre responsabilité ne se limite pas à la contrôler, mais inclut également de l'éduquer dès le départ, à l'instar de l'enseignement des valeurs humaines fondamentales à un enfant. Cette responsabilité devrait constituer une disposition obligatoire de la loi, et non une simple recommandation.
Depuis là, M. Lam a proposé que l'Assemblée nationale ajoute à cette loi les principes juridiques suivants : Tout logiciel d'IA opérant au Vietnam, qu'il soit développé par des organisations nationales ou étrangères, doit être doté d'une base de données de référence humaine standard. Cette base de données doit contenir suffisamment d'informations pour permettre à l'IA de comprendre le droit vietnamien, les normes éthiques, la culture et les traditions du pays, et de distinguer le bien du mal et les normes des standards. Les limites comportementales ne doivent pas excéder les règles d'identification des risques pour les humains. Et surtout, cette base de données de référence doit toujours être prioritaire pour la régulation du comportement de l'IA ; elle ne doit en aucun cas être écrasée, remplacée ou désactivée par un autre algorithme ou de nouvelles données d'entraînement. C'est le gage juridique et technique indispensable pour éviter tout dysfonctionnement de l'IA.
Pour mettre en œuvre efficacement cette orientation, M. Lam a également recommandé que le ministère des Sciences et des Technologies prenne l'initiative de créer une plateforme de base de données « Être vietnamien » – unifiée, normalisée et mise à jour en continu – et de la fournir obligatoirement aux développeurs d'IA. Le gouvernement doit développer une infrastructure informatique nationale robuste afin de garantir que l'IA vietnamienne soit formée selon les valeurs vietnamiennes et non dépendante de modèles étrangers. Il est également recommandé de créer un Centre national de test d'IA pour évaluer rapidement les comportements déviants, contrôler les modèles à haut risque et intervenir sans délai en cas de dépassement des limites. Enfin, il est essentiel de promouvoir l'éducation à l'IA dans toute la société, en veillant à ce que les citoyens, les entreprises et surtout le secteur public soient capables d'identifier, d'utiliser et de surveiller correctement l'IA.
Dans le même temps, force est de constater que l'humanité entre trop rapidement dans l'ère de l'IA, tandis que le cadre juridique international n'est pas encore adapté. À l'instar de la Convention de Hanoï pour la prévention de la cybercriminalité, le monde aura besoin d'une convention internationale sur la sécurité de l'IA afin d'établir des normes communes, de prévenir les dérives et de protéger les droits humains face au développement de l'IA. Grâce à une vision proactive, prudente et humaniste, le Vietnam est parfaitement en mesure de jouer un rôle moteur dans la proposition et le pilotage de cette initiative.
« La loi sur l’intelligence artificielle d’aujourd’hui n’est pas seulement une loi technologique, mais une loi d’avenir ; un engagement de l’Assemblée nationale envers le peuple : développer la technologie sans en perdre le contrôle ; promouvoir l’innovation sans laisser les risques nous échapper ; et cultiver l’intelligence artificielle selon les valeurs vietnamiennes au service du peuple vietnamien », a déclaré M. Lam.
Source : https://daidoanket.vn/hay-coi-ai-nhu-mot-con-nguoi-moi-sinh-va-day-ai-nhu-mot-dua-tre.html






Comment (0)