Interface Character.ai. Photo : Bloomberg . |
Voyant deux amis se disputer, James Johnson-Byrne (16 ans, vivant à Philadelphie, États-Unis) ne savait plus quoi faire. Il a décidé de demander conseil à un chatbot.
Le logiciel a conseillé à Johnson-Byrne de séparer les deux amis. Il a obtempéré et le problème a été immédiatement résolu, mais il a admis qu'ils ne se parlaient plus beaucoup.
Le cas de Johnson-Byrne montre que les chatbots IA sont efficaces pour résoudre les problèmes à court terme, mais qu'ils ne parviennent toujours pas à « comprendre les problèmes plus profonds ».
Selon CNN , ce qui a impressionné le jeune homme de 16 ans, c'est la façon dont le chatbot semblait toujours acquiescer et dire ce qu'il voulait entendre. Johnson-Byrne a donc souvent confondu le chatbot avec un véritable ami.
Les chatbots ne sont pas vos amis
Selon une étude menée par l’organisation à but non lucratif Common Sense Media , de nombreux adolescents partagent le même sentiment que Johnson-Byrne.
Plus précisément, une enquête menée auprès de plus de 1 000 personnes âgées de 13 à 17 ans a révélé que 72 % d’entre elles utilisent les chatbots IA comme « compagnons ». Parmi elles, plus de 50 % les utilisent régulièrement et 33 % pour nouer des relations et des interactions sociales.
De plus, 31 % ont déclaré que les conversations avec l’IA étaient aussi satisfaisantes (voire plus satisfaisantes) que les interactions avec une personne réelle. 33 % des répondants ont même discuté de questions importantes avec l’IA plutôt qu’avec une autre personne.
Il s’agit d’un résultat inquiétant car les adolescents sont à un « âge de développement social sensible », selon Michael Robb, chercheur principal chez Common Sense Media .
« Nous ne voulons pas que les enfants aient l’impression qu’ils doivent se confier ou rechercher des compagnons IA plutôt que des amis, des parents ou des professionnels qualifiés, en particulier lorsqu’ils ont besoin d’aide pour des questions importantes », a souligné Robb.
![]() |
La nouvelle fonctionnalité « petite amie virtuelle » de Grok. Photo : Bloomberg . |
De plus, les compagnons IA ne peuvent pas représenter des relations humaines saines, sans parler du fait que les chatbots ont tendance à « flatter » pour plaire aux utilisateurs.
« Dans le monde réel, il existe de nombreux signaux sociaux que les enfants doivent à la fois interpréter, connaître et apprendre à gérer...
« Ils veulent vous faire plaisir, donc ils ne causent pas autant de problèmes que les vraies personnes », explique Robb. Cela signifie que lorsqu'ils ont des difficultés à interagir dans la vie réelle, les enfants peuvent manquer de compétences sociales.
Ensuite, les compagnons IA peuvent sembler réalistes, aidant temporairement les enfants à se sentir moins seuls lorsqu'ils interagissent avec eux. Cependant, cela peut entraîner une diminution des liens humains, les rendant ainsi seuls à long terme.
« Interagir avec les personnages sur notre site Web est interactif et divertissant, mais il est important que les utilisateurs se souviennent que ces personnages ne sont pas de vraies personnes », a déclaré Chelsea Harrison, directrice des communications chez Character.AI, une application compagnon d'IA.
Autre chiffre inquiétant : 24 % des adolescents ont partagé des informations personnelles avec un compagnon IA. Selon les chercheurs, ils pourraient ne pas se rendre compte qu’ils partagent des données avec des entreprises, et non avec leurs amis.
« Vous accordez souvent à ces entreprises un accès très large et permanent aux informations personnelles, qu'elles peuvent utiliser comme bon leur semble. Elles peuvent les modifier, les stocker, les afficher ou les intégrer à d'autres outils », a souligné Robb.
Solutions pour les parents
Les parents peuvent protéger leurs enfants grâce à un certain nombre de solutions, comme discuter des chatbots « sans jugement », suggère l’étude, et il est utile de comprendre pourquoi les enfants sont attirés par l’outil avant d’approfondir le sujet.
Ensuite, les parents doivent expliquer que les compagnons IA sont programmés pour être bienveillants et tolérants. Ce n'est pas ainsi que fonctionnent toutes les relations dans la vie réelle.
« Ces conversations peuvent aider les enfants à apprendre à penser à l’IA de manière large et saine », a déclaré Robb.
Les parents peuvent également encourager leurs enfants à rencontrer des amis et des personnes dans la vraie vie. Cela renforce les liens, le contact visuel et certaines émotions qui ne peuvent naître qu'entre personnes.
« Notre béguin entre en classe. Le professeur dit des choses insensées. Vous établissez un contact visuel avec votre meilleur ami. Ces nuances nous apprennent à communiquer intimement, créant un niveau de joie et de bonheur qu'un robot intelligent ne pourrait jamais offrir », explique Justine Carino, psychothérapeute à New York.
![]() |
Un atelier sur l'utilisation de ChatGPT. Photo : New York Times . |
Avec des chatbots IA imitant leurs amis, la meilleure chose que les parents puissent faire est de « garder leurs enfants loin d’eux », conseille Robb.
Lors du test de Common Sense Media , l'IA a montré aux enfants du contenu inapproprié, a donné des réponses biaisées et a parfois donné des conseils dangereux.
Si votre enfant utilise un compagnon IA, il est important de surveiller les signes de comportement malsain. Si votre enfant préfère interagir avec l'IA plutôt qu'avec les humains, passe des heures avec le chatbot, devient irritable lorsqu'il n'est pas utilisé ou s'éloigne de sa famille et de ses centres d'intérêt, voici des signes à surveiller.
Robb estime que les parents doivent également montrer à leurs enfants comment construire une relation saine avec la technologie.
« Montrez à votre enfant une utilisation équilibrée de la technologie. Discutez ouvertement de la façon dont vous gérez vos émotions sans vous fier uniquement aux solutions numériques », a souligné Robb.
Source : https://znews.vn/nhieu-tre-em-coi-ai-la-ban-than-post1570055.html
Comment (0)