En avril, l'avocat Van Slyck (vivant à Charleston, en Caroline du Sud, aux États-Unis) a manqué un rendez-vous avec son psychologue et a donc décidé d'essayer d'utiliser ChatGPT pour confier ses problèmes personnels.
Lors d'une conversation virtuelle avec le chatbot d'OpenAI, il a confié qu'il était réconfortant de partager des histoires intimes avec une machine. Il a partagé ses craintes et ses pressions en tant que personne transgenre, ainsi que le manque de reconnaissance des droits des personnes transgenres dans son pays de résidence. Van Slyck a également évoqué son conflit avec sa famille concernant le manque de soutien à son identité de genre et son prochain déménagement.
S'appuyer sur l'IA pour le conseil psychologique
Au cours des jours suivants, Van Slyck a commencé à envoyer des SMS à certaines heures de la journée pour exprimer ses sentiments. Progressivement, il a commencé à ressentir que les réponses de ChatGPT étaient plus intimes et émotionnelles.
Lorsqu'il partage ses sentiments avec les autres, il a souvent l'impression de les accabler, même lorsqu'il parle à son psychologue. Grâce au chatbot IA, il ne ressent plus cette pression.
« ChatGPT répond aux questions que vous souhaitez entendre de la bouche d'une personne réelle. Parfois, ces encouragements suffisent », a déclaré Van Slyck.
L'IA ne peut toujours pas remplacer les psychologues. (Photo : NurPhoto)
Selon Bloomberg, 2023 ne marque que les débuts des chatbots génératifs à IA. Bien que des modèles de langage génératifs comme ChatGPT et Bing soient utilisés par des millions de personnes dans le monde , leur avenir reste incertain. Aujourd'hui, les utilisateurs utilisent des chatbots IA pour effectuer des recherches sur Internet, tricher aux devoirs, programmer des logiciels et réserver des restaurants.
L'idée d'utiliser des chatbots pour le conseil psychologique n'est pas nouvelle. Eliza fut l'un des premiers chatbots au monde, développé dans les années 1960 par le professeur Joseph Weizenbaum du Massachusetts Institute of Technology (MIT). Ce chatbot était doté des mêmes capacités qu'un conseiller psychologique.
Puis sont apparus plusieurs chatbots axés sur la santé mentale humaine, tels que Woebot et Wysa. Contrairement aux psychologues humains, ces chatbots travaillent sans relâche et coûtent peu, voire pas du tout.
L'IA ne peut toujours pas remplacer les médecins
Cependant, cette commodité présente aussi de nombreux inconvénients. Les chatbots populaires tels que ChatGPT, Bard ou Bing fonctionnent sur la base de modèles linguistiques étendus (LLM), capables de générer des réponses ou des informations très convaincantes à partir d'énormes ensembles de données.
Ils ne sont pas conçus pour fournir un accompagnement psychologique ni des conseils éthiques et juridiques comme les psychologues. Actuellement, les chatbots IA ne sont pas capables de systématiser les témoignages des utilisateurs, ce qui les rend inférieurs aux véritables psychologues.
« Si vous souffrez d'un grave problème de santé mentale, les chatbots IA ne remplacent pas un professionnel de la santé mentale », a déclaré Stephen Ilardi, professeur à l'Université du Kansas. Il a ajouté que les risques liés à l'utilisation de ces systèmes étaient trop importants et a qualifié ChatGPT de « blague facile ». Il est important de trouver quelqu'un de confiance à qui parler de ses problèmes personnels.
En réponse à ce problème, un représentant d'OpenAI, la société mère de ChatGPT, a conseillé aux utilisateurs de ne pas utiliser les modèles de langage d'IA pour diagnostiquer ou traiter des problèmes de santé graves.
OpenAI recommande également aux utilisateurs de ne pas utiliser l'IA comme substitut à l'assistance d'un professionnel de la psychologie. (Photo : Slashgear)
Lors de sa conversation avec Van Slyck, ChatGPT a également affirmé à plusieurs reprises qu'il n'était pas psychologue. « Si vous souffrez d'un traumatisme ou de problèmes de santé mentale, le contenu disponible sur Internet peut être utile, mais il ne remplace pas un professionnel », a répondu ChatGPT.
Il est difficile de parler de problèmes personnels avec l'IA
Van Slyck a déclaré qu'il continuerait à consulter régulièrement un psychologue et à demander conseil à ChatGPT avant de suivre le programme. « Jusqu'à présent, tous les conseils de ChatGPT ont été très judicieux et très judicieux », a déclaré l'avocat.
ChatGPT pourrait être intégré au processus de consultation face à la demande croissante de services de conseil psychologique, selon le professeur Stephen Ilardi. La scientifique Margaret Mitchell, de la communauté d'IA open source Hugging Face, estime que les chatbots IA pourraient être utilisés pour doter les lignes d'assistance téléphonique et contribuer à la prise en charge d'un plus grand nombre d'appels.
Cependant, les experts craignent que certaines personnes ne fassent appel à des chatbots pour des consultations psychologiques, ce qui aggraverait le problème par manque de compréhension de l'IA. La confidentialité est également un sujet controversé, car OpenAI utilisera les conversations des utilisateurs avec les chatbots pour évaluer et entraîner le système. Par conséquent, de nombreuses personnes hésiteront à partager des informations personnelles sensibles avec ChatGPT.
Beaucoup de gens trouvent également le conseil par IA trop étrange. Aaron Lawson, chef de projet à San Diego, en Californie, explique qu'il utilise souvent ChatGPT en tant que psychologue. Bien que ses réponses soient très humaines, Lawson a néanmoins l'impression de parler à une machine.
« Je lui ai dit d'essayer le jeu de rôle, mais j'ai eu des problèmes avec cette pièce », a partagé Aaron Lawson.
(Source : Zing News)
Utile
Émotion
Créatif
Unique
Colère
Source
Comment (0)