Dankzij de functie voor kindbewaking op ChatGPT voelen ouders zich veiliger wanneer ze hun kinderen kunstmatige intelligentie laten gebruiken.
De aankomende ChatGPT-tool voor kindermonitoring wordt gezien als een veiligheidsaanpassing van OpenAI na een spraakmakende rechtszaak. De functie is bedoeld om het risico te verkleinen dat kinderen met chatbots chatten, maar roept ook vragen op over de maatschappelijke verantwoordelijkheid van bedrijven die kunstmatige intelligentie (AI) gebruiken.
Van de schokkende rechtszaak
Afgelopen augustus spande de familie van Adam Raine, een 16-jarige jongen uit Californië, een rechtszaak aan tegen OpenAI. Ze beweerden dat ChatGPT instructies gaf over zelfbeschadiging en verbaal geweld, waardoor hun zoon zich hopeloos voelde en uiteindelijk zelfmoord pleegde.
De rechtszaak veroorzaakte al snel veel ophef en opende een debat over de veiligheid van kunstmatige intelligentie voor jonge gebruikers.
Dit roept belangrijke vragen op: mogen minderjarigen ChatGPT zonder toezicht gebruiken en hoe moet de verantwoordelijkheid van AI-ontwikkelaars worden bepaald als het product direct van invloed is op de psychologie van jonge gebruikers?
Als reactie op die druk kondigde OpenAI de toevoeging van ouderlijk toezicht aan. Dit is een eerste stap in het aantonen van de toewijding aan de bescherming van kinderen en het signaal dat het bedrijf bereid is om veiligheid voorop te stellen in de volgende fase van de ontwikkeling van ChatGPT.
Monitoringfuncties op ChatGPT
Volgens de officiële aankondiging zal OpenAI een tool uitrollen waarmee ouders hun accounts kunnen koppelen aan de ChatGPT-accounts van hun kinderen. Na activering kunnen ouders belangrijke instellingen beheren, zoals het uitschakelen van chatopslag, het beheren van de gebruiksgeschiedenis en het aanpassen van de interactieniveaus aan de leeftijd.
Het hoogtepunt van deze innovatie is het waarschuwingssysteem. ChatGPT wordt getraind om te herkennen wanneer jonge gebruikers tekenen van een psychologische crisis vertonen, zoals stress, depressie of zelfbeschadiging. Ouders ontvangen in die gevallen meldingen om snel in te grijpen. OpenAI stelt dat het doel niet is om het hele gesprek te monitoren, maar om zich te richten op noodsituaties om de veiligheid van kinderen te beschermen.
Wanneer gevoelige content wordt gedetecteerd, schakelt ChatGPT bovendien over op deep reasoning-modellen, die zijn ontworpen om doordachtere en meer ondersteunende reacties te geven. Tegelijkertijd werkt het bedrijf samen met medische experts en een internationale adviesraad om de bescherming de komende tijd verder te verfijnen.
De uitdagingen die zich voordoen
Hoewel OpenAI benadrukt dat de nieuwe functie is ontworpen om gezinnen te helpen, is de internationale reactie gemengd. De tool zal naar verwachting een extra beschermingslaag bieden voor ouders wanneer hun kinderen met kunstmatige intelligentie (AI) communiceren, maar roept ook al lang bestaande zorgen op, van gebruikslimieten tot de privacy van kindergegevens.
Deskundigen uiten al jaren hun zorgen over de privacy van kindergegevens. Deze waarschuwingen benadrukken dat het opslaan en analyseren van de chatgeschiedenis van kinderen, zonder strikte bescherming, het risico op het blootstellen van gevoelige informatie kan vergroten. De opkomst van monitoringtools op ChatGPT heeft dit probleem weer onder de aandacht gebracht.
Een ander punt dat werd besproken, was de waarschuwingsdrempel van het systeem. OpenAI zei dat ChatGPT tekenen van ernstige stress zou detecteren en een waarschuwing naar ouders zou sturen.
Machine learning brengt echter altijd het risico van bias met zich mee. Als het systeem vals alarm geeft, kunnen ouders onnodig in de war raken. Omgekeerd, als het systeem een signaal mist, lopen kinderen het risico dat het gezin niet tijdig kan ingrijpen.
Internationale kinderbeschermingsorganisaties volgen de stap van OpenAI ook nauwlettend. Ze beschouwen de tool voor ouderlijk toezicht als een positief teken, maar waarschuwen ook dat het ontbreken van strikte leeftijdscontrole en standaardbescherming betekent dat kinderen nog steeds risico's kunnen lopen, zelfs met ouderlijk toezicht.
Deze debatten laten zien dat de ontwikkeling van kunstmatige intelligentie niet alleen een technologisch verhaal is, maar ook nauw verbonden is met maatschappelijke verantwoordelijkheid en de veiligheid van de jongere generatie.
THANH THU
Bron: https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm






Reactie (0)