La fonction de surveillance des enfants sur ChatGPT aide également les parents à se sentir plus en sécurité lorsqu'ils laissent leurs enfants utiliser l'intelligence artificielle.
Le futur outil de surveillance des enfants ChatGPT est perçu comme une mesure de sécurité renforcée mise en place par OpenAI suite à un procès très médiatisé. Cette fonctionnalité vise à réduire les risques liés aux interactions entre enfants et chatbots, tout en soulevant des questions quant à la responsabilité sociale des entreprises spécialisées dans l'intelligence artificielle.
Suite à cette action en justice choquante
En août dernier, la famille d'Adam Raine, un garçon californien de 16 ans, a porté plainte contre OpenAI, affirmant que ChatGPT avait fourni des instructions d'automutilation et des injures verbales qui avaient plongé leur fils dans le désespoir avant qu'il ne se suicide.
Le procès a rapidement fait grand bruit et ouvert un débat sur la sécurité de l'intelligence artificielle pour les jeunes utilisateurs.
Cela soulève des questions importantes : les mineurs devraient-ils utiliser ChatGPT sans surveillance, et comment déterminer la responsabilité des développeurs d’IA lorsque le produit affecte directement la psychologie des jeunes utilisateurs ?
En réponse à ces pressions, OpenAI a annoncé l'ajout de contrôles parentaux, une première étape visant à démontrer son engagement à protéger les enfants et à signaler que l'entreprise est disposée à privilégier la sécurité dans la prochaine phase de développement de ChatGPT.
Fonctionnalités de surveillance sur ChatGPT
D'après l'annonce officielle, OpenAI déploiera un outil permettant aux parents de lier leurs comptes à ceux de leurs enfants sur ChatGPT. Une fois activé, cet outil permettra aux parents de gérer des paramètres importants tels que la désactivation du stockage des conversations, le contrôle de l'historique d'utilisation et l'ajustement des niveaux d'interaction en fonction de l'âge.
L'innovation majeure réside dans le système d'alerte. ChatGPT sera entraîné à reconnaître les signes de détresse psychologique chez les jeunes utilisateurs, tels que le stress, la dépression ou l'automutilation. Dans ces cas-là, les parents recevront une notification afin d'intervenir rapidement. OpenAI précise que l'objectif n'est pas de surveiller l'intégralité des conversations, mais de se concentrer sur les situations d'urgence pour garantir la sécurité des enfants.
De plus, en cas de détection de contenu sensible, ChatGPT basculera vers des modèles de raisonnement approfondis, conçus pour fournir des réponses plus pertinentes et adaptées. Parallèlement, l'entreprise collabore avec des experts médicaux et un comité consultatif international afin de continuer à perfectionner ses protections.
Les défis posés
Bien qu'OpenAI ait insisté sur le fait que cette nouvelle fonctionnalité est conçue pour bénéficier aux familles, les réactions internationales sont mitigées. Cet outil est censé renforcer la protection des parents lorsque leurs enfants interagissent avec l'intelligence artificielle, mais il a également ravivé des inquiétudes persistantes, notamment concernant les limites d'utilisation et la protection des données des enfants.
En réalité, les experts s'inquiètent depuis des années de la protection des données des enfants. Ils soulignent notamment que le stockage et l'analyse de l'historique des conversations des enfants, sans mesures de protection strictes, peuvent accroître le risque de divulgation d'informations sensibles. L'apparition d'outils de surveillance sur ChatGPT a remis cette question sur le devant de la scène.
Un autre point abordé concernait le seuil d'alerte du système. OpenAI a indiqué que ChatGPT détecterait les signes de stress intense et enverrait une alerte aux parents.
Cependant, l'apprentissage automatique comporte toujours un risque de biais. Si le système déclenche une fausse alerte, les parents risquent d'être inutilement désorientés. À l'inverse, s'il ne détecte pas un signal, les enfants peuvent courir des risques auxquels leur famille ne pourra pas répondre à temps.
Les organisations internationales de protection de l'enfance ont également suivi de près la décision d'OpenAI, reconnaissant que l'outil de contrôle parental est un signe positif, mais avertissant que l'absence de vérification stricte de l'âge et de protections par défaut signifie que les enfants peuvent toujours être exposés à des risques, même sous la surveillance parentale.
Ces débats montrent que le développement de l'intelligence artificielle n'est pas seulement une histoire technologique, mais qu'il est aussi étroitement lié à la responsabilité sociale et à la sécurité des jeunes générations.
THANH JEU
Source : https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm






Comment (0)