Le Vietnam dispose de son premier ensemble de règles éthiques en matière d'IA

L'intelligence artificielle (IA) devrait apporter de grands avantages aux citoyens, à la société et à l' économie vietnamienne. Parallèlement à l'application de l'IA, le Vietnam a mené des recherches et pris des mesures pour minimiser les risques liés au développement et à l'utilisation de l'IA, en équilibrant les facteurs économiques, éthiques et juridiques.

C’est également la raison pour laquelle le ministère des Sciences et de la Technologie (MOST) a publié un ensemble de documents guidant un certain nombre de principes sur la recherche et le développement responsables des systèmes d’intelligence artificielle.

Le document d’orientation énonce un certain nombre de principes généraux et de recommandations volontaires à titre de référence et d’application dans le processus de recherche, de conception, de développement et de fourniture de systèmes d’intelligence artificielle.

Les agences scientifiques et technologiques, les organisations, les entreprises et les particuliers engagés dans la recherche, la conception, le développement et la fourniture de systèmes d’intelligence artificielle sont encouragés à appliquer ce document d’orientation.

W-vien-han-lam-illustration-ai-tri-tue-nhan-tao-1.jpg
Modèles de robots de l'Académie des sciences et technologies du Vietnam au Salon international de l'innovation du Vietnam 2023. Photo : Trong Dat

En conséquence, la recherche et le développement de systèmes d’IA au Vietnam doivent être basés sur le point de vue fondamental d’évoluer vers une société centrée sur l’humain, où chacun bénéficie des avantages de l’intelligence artificielle, garantissant un équilibre raisonnable entre les avantages et les risques.

Les activités de recherche et développement des systèmes d'IA au Vietnam visent à garantir la neutralité technologique. Dans tous les cas, le ministère des Sciences et des Technologies encourage les échanges et les discussions avec la participation des parties prenantes. Les principes et les lignes directrices continueront d'être étudiés et mis à jour pour s'adapter à la situation concrète.

Le ministère des Sciences et des Technologies a déclaré que la publication de ce document vise à promouvoir l'intérêt pour la recherche, le développement et l'utilisation de l'intelligence artificielle au Vietnam, de manière sûre et responsable, en minimisant les impacts négatifs sur la population et la communauté. Cela renforcera la confiance des utilisateurs et de la société dans l'IA et facilitera la recherche et le développement de l'intelligence artificielle au Vietnam.

Principes pour un développement responsable de l'IA

Dans ce document, les développeurs sont encouragés à faire preuve d'un esprit de collaboration, favorisant l'innovation par la connexion et l'interaction des systèmes d'intelligence artificielle. Ils doivent garantir la transparence en contrôlant les entrées/sorties des systèmes d'IA et en étant capables d'expliquer les analyses pertinentes.

Les développeurs doivent prêter attention à la capacité de contrôler les systèmes d'intelligence artificielle et évaluer les risques en amont. Une façon d'évaluer les risques consiste à effectuer les tests dans un espace séparé, tel qu'un laboratoire ou un environnement où la sécurité est garantie, avant leur mise en pratique.

De plus, pour garantir la contrôlabilité des systèmes d’IA, les développeurs doivent prêter attention à la surveillance du système (avec des outils d’évaluation/surveillance ou de correction/mise à jour basés sur les commentaires des utilisateurs) et aux mesures de réponse (arrêt du système, arrêt du réseau, etc.) effectuées par des humains ou des systèmes d’IA de confiance.

IA AI Robot Anan 3.jpg
Un jeune pose une question au robot d'intelligence artificielle Anan, développé par des ingénieurs vietnamiens. Photo : Trong Dat

Les développeurs doivent s'assurer que le système d'IA ne portera pas atteinte à la vie, à l'intégrité physique ou aux biens des utilisateurs ou de tiers, y compris par l'intermédiaire d'intermédiaires ; ils doivent prêter attention à la sécurité du système d'IA, à sa fiabilité et à sa capacité à résister aux attaques physiques ou aux accidents ; ils doivent également veiller à ce que le système d'IA ne porte pas atteinte à la vie privée des utilisateurs ou de tiers. Les droits à la vie privée mentionnés dans le principe comprennent le droit à l'intimité de l'espace (paix dans la vie privée), le droit à la confidentialité des informations (données personnelles) et la confidentialité des communications.

Lors du développement de systèmes d'intelligence artificielle, les développeurs doivent veiller tout particulièrement au respect des droits humains et de la dignité humaine. Dans la mesure du possible, et en fonction des caractéristiques de la technologie utilisée, ils doivent prendre des mesures pour garantir qu'ils ne causent pas de discrimination ou d'injustice en raison de biais (préjugés) dans les données d'apprentissage. De plus, les développeurs doivent exercer leur responsabilité envers les parties prenantes et soutenir les utilisateurs.

À l'ère du 4.0, le journalisme ne doit pas rater le « train à grande vitesse » de l'IA . Au lieu d'hésiter et de craindre l'IA, les journalistes devraient intégrer proactivement l'intelligence artificielle au fonctionnement des rédactions.