Funkce sledování dětí na ChatGPT také pomáhá rodičům cítit se bezpečněji, když nechávají své děti používat umělou inteligenci.
Nadcházející nástroj pro sledování dětí ChatGPT je vnímán jako bezpečnostní změna oproti OpenAI po ostře sledovaném soudním sporu. Tato funkce si klade za cíl snížit rizika spojená s chatováním dětí s chatboty a zároveň vyvolává otázky ohledně společenské odpovědnosti společností zabývajících se umělou inteligencí.
Z šokující žaloby
Rodina Adama Rainea, šestnáctiletého chlapce z Kalifornie, loni v srpnu podala žalobu na OpenAI s tvrzením, že ChatGPT poskytoval pokyny k sebepoškozování a slovní napadání, které jejich syna před spácháním sebevraždy zanechaly v beznadějném stavu.
Soudní spor rychle vyvolal rozruch a zahájil debatu o bezpečnosti umělé inteligence pro mladé uživatele.
Tato událost vyvolává důležité otázky: měli by nezletilí používat ChatGPT bez dozoru a jak by měla být určena odpovědnost vývojářů umělé inteligence, když produkt přímo ovlivňuje psychologii mladých uživatelů?
V reakci na tento tlak společnost OpenAI oznámila přidání rodičovské kontroly, což je první krok k demonstraci jejího závazku chránit děti a signalizaci, že je společnost připravena v další fázi vývoje ChatGPT upřednostnit bezpečnost.
Funkce monitorování na ChatGPT
Podle oficiálního oznámení OpenAI spustí nástroj, který umožní rodičům propojit jejich účty s účty ChatGPT jejich dětí. Po aktivaci budou moci rodiče spravovat důležitá nastavení, jako je vypnutí ukládání chatu, správa historie používání a úprava úrovní interakce odpovídající věku.
Vrcholem této inovace je systém upozornění. ChatGPT bude trénován tak, aby rozpoznal, kdy mladí uživatelé vykazují známky psychické tísně, jako je stres, deprese nebo sebepoškozování. V takových případech rodiče obdrží upozornění, aby mohli neprodleně zasáhnout. OpenAI tvrdí, že cílem není monitorovat celou konverzaci, ale zaměřit se na naléhavé situace s cílem ochránit bezpečnost dětí.
Kromě toho, když je detekován citlivý obsah, ChatGPT přepne na modely hlubokého uvažování, které jsou navrženy tak, aby poskytovaly promyšlenější a podpůrnější reakce. Souběžně společnost spolupracuje s lékařskými experty a mezinárodní poradní radou na dalším zdokonalování svých ochranných opatření.
Výzvy, které představují
Ačkoli OpenAI zdůrazňuje, že nová funkce je navržena tak, aby prospívala rodinám, mezinárodní reakce byly smíšené. Očekává se, že nástroj poskytne rodičům další vrstvu ochrany při interakci jejich dětí s umělou inteligencí, ale zároveň vyvolává dlouhodobé obavy, od omezení používání až po ochranu soukromí dětských dat.
Obavy ohledně ochrany osobních údajů dětí ve skutečnosti vznášejí odborníci již léta. Tato varování zdůrazňují, že ukládání a analýza historie dětských chatů bez přísné ochrany může zvýšit riziko vyzrazení citlivých informací. Vznik monitorovacího nástroje ChatGPT tento problém znovu dostal do centra pozornosti.
Dalším diskutovaným bodem byl varovný práh systému. OpenAI uvedla, že ChatGPT detekuje známky silného stresu a odešle upozornění rodičům.
Strojové učení však vždy s sebou nese riziko chyby. Pokud systém spustí falešný poplach, rodiče mohou být zbytečně zmateni. Naopak, pokud systém signál přehlédne, děti mohou čelit rizikům, že rodiny nebudou schopny včas zasáhnout.
Mezinárodní organizace na ochranu dětí také pozorně sledují krok OpenAI a uznávají nástroj rodičovské kontroly jako pozitivní znamení, ale varují, že absence přísného ověřování věku a výchozí ochrany znamená, že děti mohou být stále ohroženy, a to i pod rodičovským dohledem.
Tyto debaty ukazují, že rozvoj umělé inteligence není jen otázkou technologií, ale je také úzce spjat se společenskou odpovědností a bezpečností mladší generace.
ČT THANH
Zdroj: https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm
Komentář (0)