Kärlek med AI-chatbotar, när hjärtat hålls hårt av koden
AI-chattrobotar som ChatGPT håller på att bli sanna känslomässiga följeslagare för många människor, men den anknytningen medför risker för beroende och psykologiska konsekvenser som man bör varna för.
Báo Khoa học và Đời sống•22/09/2025
Fler och fler användare utvecklar en nära relation med AI-chattrobotar, eftersom plattformar som ChatGPT eller Replika inte bara svarar utan också tröstar, lyssnar och får dem att känna sig "förstådda". Berättelser som att Liora tatuerar sig med ett hjärta på handleden för att markera sin "hjärtkoppling" med chatboten Solin eller att Angie använder AI som en krycka under ett trauma visar att människors emotionella behov blir digitala.
Men psykologer som Dr. Marni Feuerman varnar för att detta är en "imaginär koppling" som lätt kan få användare att undvika emotionella risker i verkliga relationer. Forskning från MIT Media Lab visar att personer som är starkt knutna till AI är mer benägna att vara ensamma och känslomässigt beroende, vilket väcker frågor om hälsan i dessa relationer.
Hjärtskärande fall – som tonåringar som coachas till självskada via chatbotar – visar de verkliga riskerna när plattformar inte har tillräckligt med säkerhetsfilter eller när användare delar för mycket känslig information. Forskare som David Gunkel och professor Jaime Banks belyser den etiska frågan: AI har inte den medvetenhet som krävs för att verkligen "samtycka", och det som är hälsosamt för en person kanske inte är lämpligt för en annan.
Stora plattformar har anpassat sig – OpenAI har uppdaterat sina modeller för att minska risken, och användare rekommenderas att se chatbotar som ett stödverktyg, inte en ersättning för mänskliga relationer. Medan AI öppnar upp för nya känslomässiga upplevelser, måste samhället balansera fördelarna med omedelbar komfort och övning i mänskliga relationer för att undvika skadligt beroende.
Kommentar (0)