Funkce sledování dětí na ChatGPT také pomáhá rodičům cítit se bezpečněji, když nechávají své děti používat umělou inteligenci.
Nadcházející nástroj pro sledování dětí ChatGPT je vnímán jako bezpečnostní změna oproti OpenAI po ostře sledovaném soudním sporu. Tato funkce si klade za cíl snížit riziko, že si děti budou chatovat s chatboty, a zároveň vyvolává otázky ohledně společenské odpovědnosti společností zabývajících se umělou inteligencí.
Z šokující žaloby
Rodina Adama Rainea, šestnáctiletého chlapce z Kalifornie, loni v srpnu podala žalobu na OpenAI s tvrzením, že ChatGPT poskytoval jejich synovi pokyny k sebepoškozování a slovní napadání, které ho před spácháním sebevraždy zbavily pocitu beznaděje.
Soudní spor rychle vyvolal rozruch a zahájil debatu o bezpečnosti umělé inteligence pro mladé uživatele.
To vyvolává důležité otázky: měli by nezletilí používat ChatGPT bez dozoru a jak by měla být určena odpovědnost vývojářů umělé inteligence, když produkt přímo ovlivňuje psychologii mladých uživatelů?
V reakci na tento tlak společnost OpenAI oznámila přidání rodičovské kontroly, což je první krok k demonstraci jejího závazku chránit děti a signalizaci, že je ochotna v další fázi vývoje ChatGPT upřednostnit bezpečnost.
Monitorovací funkce na ChatGPT
Podle oficiálního oznámení OpenAI spustí nástroj, který umožní rodičům propojit jejich účty s účty ChatGPT jejich dětí. Po aktivaci budou moci rodiče spravovat důležitá nastavení, jako je vypnutí ukládání chatu, správa historie používání a úprava úrovní interakce odpovídající věku.
Vrcholem této inovace je systém upozornění. ChatGPT bude trénován tak, aby rozpoznal, kdy mladí uživatelé vykazují známky psychické krize, jako je stres, deprese nebo sebepoškozování. V takových případech rodiče obdrží upozornění, aby mohli neprodleně zasáhnout. OpenAI tvrdí, že cílem není monitorovat celou konverzaci, ale zaměřit se na nouzové situace s cílem ochránit bezpečnost dětí.
Kromě toho, pokud je detekován citlivý obsah, ChatGPT přepne na práci s modely hlubokého uvažování, které jsou navrženy tak, aby poskytovaly promyšlenější a podpůrnější reakce. Souběžně společnost spolupracuje s lékařskými experty a mezinárodní poradní radou na dalším zdokonalování svých ochranných opatření v nadcházejícím období.
Výzvy, které představují
Ačkoli OpenAI zdůrazňuje, že nová funkce je navržena tak, aby prospívala rodinám, mezinárodní reakce byly smíšené. Očekává se, že nástroj přidá vrstvu ochrany pro rodiče, když jejich děti interagují s umělou inteligencí, ale zároveň vyvolává dlouhodobé obavy, od omezení používání až po ochranu soukromí dětských dat.
Obavy o soukromí dětských dat ve skutečnosti vznášejí odborníci již léta. Tato varování zdůrazňují, že ukládání a analýza historie dětských chatů bez přísné ochrany může zvýšit riziko vyzrazení citlivých informací. Vznik monitorovacích nástrojů na ChatGPT tento problém znovu dostal do centra pozornosti.
Dalším diskutovaným bodem byl varovný práh systému. OpenAI uvedla, že ChatGPT detekuje známky silného stresu a odešle upozornění rodičům.
Strojové učení však vždy s sebou nese riziko zkreslení. Pokud systém spustí falešný poplach, rodiče mohou být zbytečně zmateni. Naopak, pokud systém signál přehlédne, děti mohou čelit rizikům, proti kterým rodina nedokáže včas zasáhnout.
Mezinárodní organizace na ochranu dětí také pozorně sledovaly krok OpenAI a uznaly nástroj rodičovské kontroly za pozitivní znamení, ale varovaly, že absence přísného ověřování věku a výchozí ochrany znamená, že děti mohou i s rodičovským dohledem stále čelit rizikům.
Tyto debaty ukazují, že vývoj umělé inteligence není jen technologickým příběhem, ale je také úzce spjat se společenskou odpovědností a bezpečností mladší generace.
ČT THANH
Zdroj: https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm






Komentář (0)