Barneovervåkingsfunksjonen på ChatGPT hjelper også foreldre med å føle seg tryggere når de lar barna sine bruke kunstig intelligens.
Det kommende ChatGPT-verktøyet for barneovervåking blir sett på som en sikkerhetsendring fra OpenAI etter et høyprofilert søksmål. Funksjonen har som mål å redusere risikoen for at barn chatter med chatboter, samtidig som den reiser spørsmål om det sosiale ansvaret til kunstig intelligens-selskaper.
Fra det sjokkerende søksmålet
I august i fjor saksøkte familien til Adam Raine, en 16 år gammel gutt fra California, OpenAI. De hevdet at ChatGPT ga instruksjoner om selvskading og verbal mishandling som gjorde sønnen deres håpløs før han begikk selvmord.
Søksmålet skapte raskt oppstyr og åpnet en debatt om sikkerheten til kunstig intelligens for unge brukere.
Dette reiser viktige spørsmål: bør mindreårige bruke ChatGPT uten tilsyn, og hvordan bør ansvaret til AI-utviklere avgjøres når produktet direkte påvirker psykologien til unge brukere?
Som svar på dette presset annonserte OpenAI at de hadde lagt til foreldrekontroller, et første skritt mot å demonstrere sin forpliktelse til å beskytte barn og signalisere at selskapet er villig til å sette sikkerhet først i neste fase av ChatGPTs utvikling.
Overvåkingsfunksjoner på ChatGPT
Ifølge den offisielle kunngjøringen vil OpenAI rulle ut et verktøy som lar foreldre koble kontoene sine til barnas ChatGPT-kontoer. Når det er aktivert, kan foreldre administrere viktige innstillinger som å slå av chatlagring, kontrollere brukshistorikk og justere alderstilpassede interaksjonsnivåer.
Høydepunktet ved denne innovasjonen er varslingssystemet. ChatGPT vil bli trent til å gjenkjenne når unge brukere viser tegn på psykologisk krise, som stress, depresjon eller selvskading. I slike tilfeller vil foreldre motta varsler om å gripe inn raskt. OpenAI hevder at målet ikke er å overvåke hele samtalen, men å fokusere på nødsituasjoner for å beskytte barns sikkerhet.
I tillegg, når sensitivt innhold oppdages, vil ChatGPT gå over til å operere med dyptgående resonneringsmodeller, som er utviklet for å gi mer gjennomtenkte og støttende svar. Parallelt samarbeider selskapet også med medisinske eksperter og et internasjonalt rådgivende utvalg for å fortsette å forbedre beskyttelsen sin i tiden som kommer.
Utfordringene som oppstår
Selv om OpenAI har understreket at den nye funksjonen er utviklet for å være til fordel for familier, har den internasjonale responsen vært blandet. Verktøyet forventes å legge til et lag med beskyttelse for foreldre når barna deres samhandler med kunstig intelligens, men det har også reist langvarige bekymringer, fra bruksbegrensninger til personvern for barns data.
Faktisk har eksperter i årevis reist bekymringer om barns personvern. Disse advarslene fremhever at lagring og analyse av barns chattehistorikk uten strenge beskyttelsestiltak kan øke risikoen for å eksponere sensitiv informasjon. Fremveksten av overvåkingsverktøy på ChatGPT har brakt problemet tilbake i søkelyset.
Et annet punkt som ble diskutert var systemets varslingsterskel. OpenAI sa at ChatGPT ville oppdage tegn på alvorlig stress og sende et varsel til foreldre.
Maskinlæring medfører imidlertid alltid en risiko for skjevhet. Hvis systemet gir falsk alarm, kan foreldre bli unødvendig forvirret. Omvendt, hvis det går glipp av et signal, kan barn risikere at familien ikke kan gripe inn i tide.
Internasjonale barnevernorganisasjoner har også fulgt OpenAIs trekk nøye, og anerkjent foreldrekontrollverktøyet som et positivt tegn, men advart om at mangelen på streng aldersverifisering og standardbeskyttelse betyr at barn fortsatt kan møte risikoer, selv med foreldretilsyn.
Disse debattene viser at utviklingen av kunstig intelligens ikke bare er en teknologisk historie, men også nært knyttet til samfunnsansvar og den yngre generasjonens sikkerhet.
THANH TOR
Kilde: https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm
Kommentar (0)