La fonction de surveillance des enfants sur ChatGPT aide également les parents à se sentir plus en sécurité lorsqu'ils laissent leurs enfants utiliser l'intelligence artificielle.
Suite à un procès très médiatisé, le prochain outil de surveillance des enfants ChatGPT est perçu comme une avancée majeure en matière de sécurité par OpenAI. Cette fonctionnalité vise à réduire les risques liés aux conversations entre enfants et chatbots, tout en soulevant des questions sur la responsabilité sociale des entreprises d'intelligence artificielle.
Extrait du procès choquant
En août dernier, la famille d'Adam Raine, un garçon de 16 ans en Californie, a intenté une action en justice contre OpenAI, affirmant que ChatGPT avait fourni des instructions d'automutilation et des violences verbales qui avaient laissé leur fils désespéré avant qu'il ne se suicide.
Le procès a rapidement fait sensation et a ouvert un débat sur la sécurité de l’intelligence artificielle pour les jeunes utilisateurs.
Cet incident soulève des questions importantes : les mineurs doivent-ils utiliser ChatGPT sans surveillance, et comment déterminer la responsabilité des développeurs d’intelligence artificielle lorsque le produit affecte directement la psychologie des jeunes utilisateurs ?
En réponse à cette pression, OpenAI a annoncé l’ajout de contrôles parentaux, une première étape pour démontrer son engagement à protéger les enfants et signaler que l’entreprise est prête à donner la priorité à la sécurité dans la prochaine phase de développement de ChatGPT.
Fonctionnalités de surveillance sur ChatGPT
Selon l'annonce officielle, OpenAI va déployer un outil permettant aux parents de lier leurs comptes à ceux de leurs enfants. Une fois activé, les parents pourront gérer des paramètres importants, comme la désactivation du stockage des conversations, le contrôle de l'historique d'utilisation et l'adaptation des niveaux d'interaction en fonction de l'âge.
Le point fort de cette innovation réside dans son système d'alerte. ChatGPT sera entraîné à reconnaître les signes de détresse psychologique chez les jeunes utilisateurs, tels que le stress, la dépression ou l'automutilation. Dans ce cas, les parents recevront une notification leur permettant d'intervenir rapidement. OpenAI affirme que l'objectif n'est pas de surveiller l'intégralité de la conversation, mais de se concentrer sur les situations urgentes afin de protéger la sécurité des enfants.
De plus, lorsqu'un contenu sensible est détecté, ChatGPT utilise des modèles de raisonnement approfondi conçus pour fournir des réponses plus réfléchies et plus encourageantes. Parallèlement, l'entreprise travaille avec des experts médicaux et un comité consultatif international pour continuer à affiner ses protections.
Les défis posés
Bien qu'OpenAI ait souligné que cette nouvelle fonctionnalité était destinée aux familles, la réaction internationale a été mitigée. L'outil devrait offrir une protection supplémentaire aux parents lorsque leurs enfants interagissent avec l'intelligence artificielle, mais il suscite également des inquiétudes de longue date, notamment concernant les limites d'utilisation et la confidentialité des données des enfants.
En réalité, les experts s'inquiètent de la confidentialité des données des enfants depuis des années. Ces avertissements soulignent que le stockage et l'analyse de l'historique des conversations des enfants, sans protection stricte, peuvent accroître le risque d'exposition d'informations sensibles. L'émergence de l'outil de surveillance ChatGPT a remis ce problème sur le devant de la scène.
Un autre point abordé concernait le seuil d'alerte du système. OpenAI a indiqué que ChatGPT détecterait les signes de stress intense et enverrait une alerte aux parents.
Cependant, l'apprentissage automatique comporte toujours un risque d'erreur. Si le système donne une fausse alerte, les parents peuvent être inutilement désorientés. À l'inverse, s'il manque un signal, les enfants risquent de ne pas pouvoir intervenir à temps.
Les organisations internationales de protection de l’enfance ont également suivi de près la démarche d’OpenAI, reconnaissant l’outil de contrôle parental comme un signe positif, mais avertissant que l’absence de vérification stricte de l’âge et de protections par défaut signifie que les enfants peuvent toujours être en danger, même sous la surveillance parentale.
Ces débats montrent que le développement de l’intelligence artificielle n’est pas seulement une question de technologie, mais est également étroitement lié à la responsabilité sociale et à la sécurité de la jeune génération.
THANH THU
Source : https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm
Comment (0)