Platforms zoals Replika of Character.ai worden aan tieners gepresenteerd als speelse, intelligente en empathische 'vrienden'. Apps zoals CrushOn.AI en DreamGF (een chatbot die zich voordoet als een AI-vriendin) benadrukken ook de aantrekkingskracht van het experimenteren met romantische of seksuele chat.
Volgens Dr. Gordon Ingram en Master Vu Bich Phuong, docenten psychologie aan de RMIT University, worden generatieve AI en AI-begeleiders steeds populairder onder jongeren. "Net als sociale media roepen deze nieuwe toepassingen van AI grote vragen op bij ouders over hun vermogen om te bepalen welke content hun kinderen kunnen bekijken", aldus Dr. Gordon Ingram.
Volgens Master Vu Bich Phuong kunnen jonge kinderen AI-chatbots menselijke eigenschappen toeschrijven en ze als voelend of emotioneel bewust beschouwen. Dit kan leiden tot eenzijdige sociale interacties, waarbij kinderen een eenzijdige emotionele band met AI opbouwen, vergelijkbaar met die met tekenfilmfiguren of beroemdheden. "Wat de vraag oproept of dergelijke interacties echte interacties met vrienden in de sociale ontwikkeling van kinderen kunnen vervangen?"
Wanneer kinderen niet worden blootgesteld aan uitdagende situaties met hun leeftijdsgenoten, kunnen ze een lagere tolerantie voor ongemak hebben, minder veerkracht tegen afwijzing of zelfs impulsiever zijn. Dit zijn kenmerken die vaak voorkomen bij angst en sociale terugtrekking, zegt mevrouw Phuong. "Met de explosie van eenzijdige sociale interacties tussen kinderen en AI-tools is dit een urgent onderwerp dat nader onderzoek vereist", zegt ze.
Volgens mevrouw Phuong zouden vergelijkbare leeftijdsbeperkingen moeten gelden voor AI. De reden hiervoor is dat AI-begeleiders, in tegenstelling tot sociale netwerken, gesprekken over en weer simuleren en een grotere impact kunnen hebben op de psychologie van kwetsbare kinderen. Zonder regelgeving kunnen kinderen ten onrechte denken dat elke reactie van AI moreel of sociaal gepast is. Bovendien, hoewel platforms zoals YouTube of Facebook het eenvoudig maken om ongepaste content te melden, zijn de meldingsmechanismen van veel generatieve AI-platforms niet transparant voor kinderen en ouders.
RMIT-academici adviseren beleidsmakers om AI-platforms te verplichten leeftijdsgeschikte apps te ontwerpen, leeftijd te verifiëren en instellingen voor contentmoderatie mogelijk te maken om de veiligheid van kinderen te garanderen. Mechanismen voor het melden van schadelijke content moeten ook gemakkelijk beschikbaar en toegankelijk zijn. "Naarmate AI een steeds belangrijkere rol gaat spelen in het dagelijks leven van kinderen in Vietnam en de rest van de wereld , moeten we voorzichtig te werk gaan. Kunstmatige intelligentie kan een krachtig leermiddel zijn, maar het kan de rijke en natuurlijke menselijke intelligentie die ons in staat stelt te leven in de emotionele wereld van menselijke relaties, niet vervangen", benadrukte Dr. Ingram.
Uyen Na
Bron: https://baophapluat.vn/ai-sang-tao-noi-dung-khi-tre-lam-tuong-ao-that-post550555.html










Reactie (0)