L’intelligence artificielle (IA) est la source de la connaissance humaine. C’est quelque chose que personne ne peut nier. Et ChatGPT est l'outil d'IA avec le plus grand nombre d'utilisateurs au monde, estimé à plus de 450 millions de personnes à l'heure actuelle. ChatGPT possède un système de texte composé de 8 millions de documents et de plus de 10 milliards de mots, il peut donc répondre à presque toutes les exigences humaines dans de nombreux domaines qui ne sont pas compris ou pas compris en profondeur ; simulez des conversations humaines, écrivez même de la poésie et analysez des données...
En raison de l'intelligence de cet outil, de nombreuses personnes deviennent dépendantes, ce qui conduit à des situations qui relèvent de leur compréhension ou de leurs sentiments personnels, mais elles comptent sur ChatGPT pour trouver des réponses. L’IA est « mal utilisée », en particulier dans les domaines qui nécessitent des différences humaines.
Par exemple, des félicitations ou des excuses dépendent entièrement de l’attitude et des sentiments de la personne qui les envoie. Pourtant, de nombreuses personnes utilisent l’IA au lieu de dire ce qu’elles veulent dire. L’exemple ci-dessus est partagé par un professeur de littérature. Le 20 novembre de l’année dernière, ce professeur a reçu les vœux de nombreux élèves.
Pour un enseignant, il n’y a rien de plus réconfortant que de voir des générations d’élèves se souvenir de lui et lui adresser de nombreux vœux à l’occasion de la Journée des enseignants. Cependant, ce professeur était très attentionné car beaucoup d'entre eux étaient des souhaits vides et stéréotypés qui, en les regardant, il n'était pas difficile de savoir que la personne qui les souhaitait prenait des suggestions de ChatGPT.
Selon cet enseignant, non seulement pour copier les salutations, de nombreux étudiants s'appuient également sur cet outil intelligent pour rédiger des essais. Cependant, si cette dépendance se manifeste dans l'écriture, l'enseignant peut rappeler, voire donner une mauvaise note en fonction du niveau de copie, mais avec des actions exprimant des émotions, l'enseignant ne peut que se sentir triste et ne pas savoir quoi faire d'autre.
Ou récemment, les réseaux sociaux ont diffusé des excuses (soi-disant de la part d’un étudiant qui s’est comporté de manière inappropriée envers les vétérans lors du défilé du 30 avril à Ho Chi Minh-Ville). Les excuses étaient très polies, montrant les remords de cet étudiant. Cependant, les internautes pensent que ces phrases de ChatGPT ont été « empruntées » par cet étudiant.
La vérité de l’histoire est inconnue, mais des situations similaires à celle ci-dessus ne sont pas rares, d’autant plus que l’intelligence artificielle a pris le contrôle de la vie. Les félicitations ou les excuses montrent toutes deux les sentiments et le respect de la personne à qui l'on félicite ou à qui l'on s'excuse, ce que les machines ne peuvent absolument pas remplacer. Il est donc inquiétant que certaines personnes empruntent des émotions à l’IA. À ce moment-là, aussi doux que soient les souhaits ou les excuses, ils manquent toujours de sincérité et sont difficiles à accepter pour les autres.
Et au travail ? L’IA est très nécessaire lorsqu’il s’agit de nous donner des suggestions de référence. Mais l’IA ne connaît pas tous les contenus et ne donne pas de réponses spécifiques. Un jeune journaliste a partagé qu'il avait été chargé par le comité de rédaction d'interviewer le chef d'une unité de premier plan liée au domaine dont il était responsable. La question a été envoyée et la réponse est arrivée à temps, ce qui a rendu le journaliste très heureux. Cependant, en lisant le contenu à l'intérieur, il n'a pas été difficile pour ce journaliste de découvrir que toutes les réponses ont été répondues par ChatGPT.
L'ensemble du contenu est général et général (ce qui reflète la même situation dans chaque localité), tandis que l'exigence est d'avoir des résultats spécifiques à travers les dernières données de l'industrie, puis de proposer des solutions adaptées à la situation réelle de la localité.
Les journalistes doivent donc s’inscrire pour travailler directement afin d’exploiter les informations dont ils ont besoin. Étant assez compétent en matière d'IA, le journaliste a déclaré que lors d'une recherche avec des mots-clés peu populaires, ChatGPT ne donne presque jamais les suggestions souhaitées. Même pour les informations sur le droit et l'histoire, ChatGPT fournit parfois des informations incomplètes et incorrectes.
Revenant sur l’histoire de la dépendance des jeunes à l’information due à l’IA, le Fonds des Nations Unies pour l’enfance (UNICEF) a mis en garde contre ce risque. « Nous devons faire davantage pour préparer nos jeunes citoyens, férus de technologie, à résister à la manipulation et à maintenir la confiance dans des sources de connaissances fiables et vérifiables », a déclaré Henrietta Fore, directrice générale de l’UNICEF.
Il s’agit évidemment d’un risque inquiétant non seulement pour la jeunesse vietnamienne mais aussi pour le monde entier et des solutions efficaces sont nécessaires pour faire face à cette dépendance. Parce que les jeunes sont la principale cible de l’IA et qu’ils sont en même temps ceux qui sont confrontés au plus grand nombre de risques liés à l’IA. Il est dangereux que ce groupe dépende de plus en plus de l’IA pour recevoir des informations, en particulier des informations sur l’histoire, la politique et les fondements idéologiques du Parti.
Il faut affirmer que l’utilisation de l’IA est très nécessaire. Si vous savez l’utiliser et le transformer en outil de support, vous gagnerez beaucoup de temps à investir dans la créativité. Cependant, si nous sommes trop dépendants, non seulement les étudiants mais tout le monde peut perdre de nombreuses capacités telles que la pensée critique et la créativité.
Pour les étudiants, s’appuyer sur Chat GPT en particulier et sur les outils d’intelligence artificielle en général formera une habitude de paresse pour réfléchir. Cette habitude entraîne progressivement une perte de capacité de réflexion, voire une perte de confiance en soi lorsque l’on pense que la réponse ne peut résider que dans l’IA. Les enseignants doivent donc orienter les élèves dès le collège.
Pour ce faire, cette équipe doit avoir accès à une technologie permettant de distinguer si le problème posé par les étudiants a été créé par l’IA ou par les étudiants eux-mêmes. Un expert en éducation a déclaré que dans l’enseignement, les enseignants doivent créer des questions qui obligent les élèves à argumenter sur le bien ou le mal, ce que l’IA ne peut pas faire. Ou les problèmes de pensée logique nécessitent que les étudiants réfléchissent, car l’IA ne peut répondre qu’à des questions vraies ou fausses.
Anh Thu
Source : https://baoquangtri.vn/ung-dung-tri-tue-nhan-tao-khong-xa-lanh-nhung-dung-le-thuoc-193540.htm
Comment (0)