Plattformar som Replika eller Character.ai marknadsförs till tonåringar som lekfulla, intelligenta och empatiska "vänner". Appar som CrushOn.AI och DreamGF (en chatbot som utger sig för att vara en AI-flickvän) lyfter också fram lockelsen i att experimentera med romantisk eller sexuell chatt.
Enligt Dr Gordon Ingram och Master Vu Bich Phuong – föreläsare i psykologi vid RMIT University – blir generativ AI och AI-följeslagare alltmer populära bland unga människor. ”Liksom sociala medier väcker dessa nya användningsområden för AI stora frågor för föräldrar om deras förmåga att kontrollera vilket innehåll deras barn har tillgång till”, säger Dr Gordon Ingram.
Enligt Mästare Vu Bich Phuong kan små barn tillskriva AI-chattrobotar människoliknande egenskaper och se dem som kännande eller känslomässigt medvetna. Detta kan leda till envägs sociala interaktioner, där barn skapar ett ensidigt känslomässigt band med AI liknande det med seriefigurer eller kändisar, "vilket väcker oro över huruvida sådana interaktioner kan ersätta verkliga interaktioner med vänner i barns sociala utveckling?".
När barn inte utsätts för utmanande situationer med sina jämnåriga kan de ha lägre tolerans för obehag, mindre motståndskraft mot avvisande eller till och med mer impulsivitet, egenskaper som ofta ses vid ångest och social tillbakadragenhet, säger Phuong. ”Med explosionen av envägsinteraktioner mellan barn och AI-verktyg är detta ett angeläget ämne som behöver ytterligare forskning”, säger hon.
Enligt Ms. Phuong bör liknande åldersbegränsningar tillämpas på AI. Anledningen är att till skillnad från sociala nätverk simulerar AI-följeslagare fram-och-tillbaka-samtal och kan ha en mer djupgående inverkan på utsatta barns psykologi. Utan regleringar kan barn felaktigt tro att varje svar från AI är moraliskt eller socialt lämpligt. Dessutom, medan plattformar som YouTube eller Facebook möjliggör enkel rapportering av olämpligt innehåll, är rapporteringsmekanismerna på många generativa AI-plattformar inte transparenta för barn och föräldrar.
RMIT-akademiker rekommenderar att beslutsfattare kräver att AI-plattformar utformar åldersanpassade appar, verifierar ålder och tillåter inställningar för innehållsmoderering för att säkerställa barnsäkerhet. Mekanismer för att rapportera skadligt innehåll måste också vara lättillgängliga och åtkomliga. ”I takt med att AI blir en del av barns vardag i Vietnam och runt om i världen måste vi gå försiktigt fram. Artificiell intelligens kan vara ett kraftfullt hjälpmedel för lärande, men den kan inte ersätta den rika och naturliga mänskliga intelligensen som gör att vi kan leva i den känslomässiga världen av mänskliga relationer”, betonade Dr Ingram.
Uyen Na
Källa: https://baophapluat.vn/ai-sang-tao-noi-dung-khi-tre-lam-tuong-ao-that-post550555.html










Kommentar (0)