Barnövervakningsfunktionen på ChatGPT hjälper också föräldrar att känna sig säkrare när de låter sina barn använda artificiell intelligens.
Det kommande verktyget ChatGPT för barnövervakning ses som en säkerhetsförändring från OpenAI efter en uppmärksammad stämning. Funktionen syftar till att minska risken för att barn chattar med chatbotar, samtidigt som den väcker frågor om det sociala ansvaret hos företag inom artificiell intelligens.
Från den chockerande rättegången
I augusti förra året stämde familjen till Adam Raine, en 16-årig pojke från Kalifornien, OpenAI och hävdade att ChatGPT tillhandahöll instruktioner om självskadebeteende och verbala övergrepp som lämnade deras son hopplös innan han begick självmord.
Stämningen orsakade snabbt uppståndelse och öppnade en debatt om säkerheten hos artificiell intelligens för unga användare.
Detta väcker viktiga frågor: bör minderåriga använda ChatGPT utan tillsyn, och hur bör AI-utvecklares ansvar avgöras när produkten direkt påverkar unga användares psykologi?
Som svar på den pressen tillkännagav OpenAI tillägget av föräldrakontroller, ett första steg mot att visa sitt engagemang för att skydda barn och signalera att företaget är villigt att sätta säkerheten först i nästa fas av ChatGPT:s utveckling.
Övervakningsfunktioner på ChatGPT
Enligt det officiella tillkännagivandet kommer OpenAI att lansera ett verktyg som gör det möjligt för föräldrar att länka sina konton till sina barns ChatGPT-konton. När det är aktiverat kan föräldrar hantera viktiga inställningar som att stänga av chattlagring, kontrollera användningshistorik och justera åldersanpassade interaktionsnivåer.
Höjdpunkten i denna innovation är varningssystemet. ChatGPT kommer att tränas att känna igen när unga användare visar tecken på psykologisk kris, såsom stress, depression eller självskadebeteende. I dessa fall kommer föräldrar att få aviseringar för att ingripa omedelbart. OpenAI hävdar att målet inte är att övervaka hela konversationen, utan att fokusera på nödsituationer för att skydda barns säkerhet.
Dessutom, när känsligt innehåll upptäcks, kommer ChatGPT att övergå till att arbeta med djupgående resonemangsmodeller, vilka är utformade för att ge mer genomtänkta och stödjande svar. Parallellt arbetar företaget också med medicinska experter och en internationell rådgivande nämnd för att fortsätta förfina sina skydd under den kommande tiden.
De utmaningar som ställs
Även om OpenAI har betonat att den nya funktionen är utformad för att gynna familjer, har den internationella responsen varit blandad. Verktyget förväntas ge ett lager av skydd för föräldrar när deras barn interagerar med artificiell intelligens, men det har också väckt långvariga farhågor, från användningsbegränsningar till barns dataskydd.
Faktum är att experter i åratal har oroat sig för barns dataskydd. Dessa varningar belyser att lagring och analys av barns chatthistorik, utan strikt skydd, kan öka risken för att känslig information exponeras. Framväxten av övervakningsverktyg på ChatGPT har återigen fört frågan i rampljuset.
En annan punkt som diskuterades var systemets varningströskel. OpenAI sa att ChatGPT skulle upptäcka tecken på allvarlig stress och skicka en varning till föräldrar.
Maskininlärning medför dock alltid en risk för partiskhet. Om systemet avger ett falsklarm kan föräldrar bli onödigt förvirrade. Omvänt, om det missar en signal, kan barn riskera att familjen inte kan ingripa i tid.
Internationella barnskyddsorganisationer har också noga följt OpenAIs drag och erkänt föräldrakontrollverktyget som ett positivt tecken, men varnat för att bristen på strikt åldersverifiering och standardskydd innebär att barn fortfarande kan möta risker, även med föräldraövervakning.
Dessa debatter visar att utvecklingen av artificiell intelligens inte bara är en teknologisk historia, utan också nära kopplad till socialt ansvar och den yngre generationens säkerhet.
THANH TOR
Källa: https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm






Kommentar (0)