(CLO) Les personnes qui utilisent régulièrement ChatGPT ont tendance à être plus seules, plus dépendantes émotionnellement des outils d'IA et à avoir moins de relations sociales dans la vie réelle, selon une nouvelle recherche d'OpenAI et du MIT Media Lab.
Les données de près de 40 millions d'interactions avec ChatGPT montrent que les personnes qui ont tendance à converser en personne avec ChatGPT sont plus susceptibles de se sentir seules. L'étude soulève également une question importante : les chatbots accentuent-ils le sentiment de solitude des utilisateurs, ou les personnes seules recherchent-elles plutôt une connexion avec l'IA ?
Illustration : Unsplash
L'étude s'est déroulée en deux parties. Dans la première, les chercheurs ont analysé les données de près de 40 millions de conversations ChatGPT et interrogé 4 076 utilisateurs sur leurs impressions concernant l'utilisation de l'outil. Les résultats ont montré que les personnes passant plus de temps à discuter avec l'IA avaient tendance à se sentir plus seules et dépendantes de celle-ci.
Dans la deuxième étude, le MIT Media Lab a recruté près de 1 000 participants pour une expérience de quatre semaines. Ils ont interagi avec ChatGPT pendant au moins cinq minutes chaque jour, puis ont rempli un questionnaire évaluant leur solitude, leurs interactions sociales et leur dépendance au chatbot.
Les résultats ont montré qu'après quatre semaines, les utilisatrices avaient tendance à communiquer moins avec les autres que les utilisateurs masculins. En particulier, celles qui discutaient avec ChatGPT avec une voix du sexe opposé présentaient des niveaux significativement plus élevés de solitude et de dépendance émotionnelle envers le chatbot.
Initialement, les chercheurs ont constaté que les chatbots vocaux réduisaient davantage la solitude que les chatbots textuels. Mais à mesure que leur utilisation augmentait, cet effet s'est estompé.
Ces résultats concordent avec une étude antérieure du MIT Media Lab en 2023, qui a révélé que les chatbots IA tendent à refléter les émotions des utilisateurs. Si les utilisateurs envoient un SMS de bonne humeur, le chatbot répondra plus positivement, et inversement.
Le Dr Andrew Rogoyski, directeur de l'Institut d'intelligence artificielle centrée sur l'humain de l'Université de Surrey, prévient que les humains ont tendance à percevoir l'IA comme une entité émotionnelle, ce qui rend les conversations avec les chatbots psychologiquement dangereuses.
Il a comparé le fait de trop se confier à l’IA à une « chirurgie du cerveau sans connaissance des effets à long terme », avertissant que les effets négatifs pourraient être encore plus graves que ceux des médias sociaux.
Le Dr Theodore Cosco, chercheur à l'Université d'Oxford, a déclaré que l'étude soulevait de sérieuses inquiétudes quant à l'utilisation abusive des chatbots, mais ouvrait également de nombreuses perspectives. Il a ajouté que l'IA pourrait jouer un rôle positif pour soutenir les personnes qui se sentent isolées, mais qui ont besoin de contrôle et de prudence au quotidien.
La Dre Doris Dippold, experte en communication interculturelle à l'Université de Surrey, se demande si le recours aux chatbots est dû au fait que les gens sont « rivés » à leur ordinateur ou à leur téléphone au lieu de communiquer directement avec les autres. Ou peut-être que l'interaction avec l'IA suscite un désir accru de connexion.
Bien qu’il n’y ait pas de conclusions exactes, cette étude souligne que l’IA a un grand impact sur la vie humaine, notamment en termes d’émotions et de relations sociales.
Hoai Phuong (selon Guardian, Fortune)
Source : https://www.congluan.vn/nguoi-dung-chatgpt-nhieu-co-xu-huong-co-don-hon-post340148.html






Comment (0)