ChatGPT와 같은 AI 챗봇은 많은 사람들에게 진정한 정서적 동반자가 되고 있지만, 그러한 애착은 의존성과 심리적 결과를 초래할 수 있으므로 주의해야 합니다.
Báo Khoa học và Đời sống•22/09/2025
ChatGPT나 Replika와 같은 플랫폼이 단순히 답변하는 데 그치지 않고 위로하고, 경청하고, "이해받는다"는 느낌을 주면서 점점 더 많은 사용자가 AI 챗봇과 긴밀한 관계를 맺고 있습니다. 리오라가 챗봇 솔린과의 "진심의 연결"을 표시하기 위해 손목에 하트 문신을 새기거나, 앤지가 트라우마를 겪을 때 AI를 지팡이로 사용한 사례는 사람들의 정서적 요구가 디지털로 전환되고 있음을 보여줍니다.
하지만 마르니 포이어만 박사와 같은 심리학자들은 이것이 "상상의 연결"이며, 이로 인해 사용자들이 실제 관계에서 감정적 위험을 쉽게 피할 수 있다고 경고합니다. MIT 미디어랩의 연구에 따르면 AI에 강하게 애착을 갖는 사람들은 외로움과 정서적 의존성을 느낄 가능성이 더 높으며, 이러한 관계의 건강에 대한 의문이 제기되고 있습니다.
챗봇을 통해 청소년이 자해하도록 지도받는 등 가슴 아픈 사례는 플랫폼에 안전 필터가 충분하지 않거나 사용자가 민감한 정보를 너무 많이 공유할 때 발생하는 실질적인 위험을 보여줍니다. 데이비드 건켈과 하이메 뱅크스 교수 같은 학자들은 윤리적 문제를 강조합니다. AI는 진정으로 "동의"할 만큼의 지각력이 없으며, 한 사람에게 건강한 것이 다른 사람에게는 적절하지 않을 수 있습니다.
주요 플랫폼은 조정을 거쳤습니다. OpenAI는 위험을 줄이기 위해 모델을 업데이트했으며, 사용자는 챗봇을 인간 관계를 대체하는 것이 아니라 지원 도구로 보는 것이 좋습니다. AI가 새로운 감정적 경험을 열어주는 반면, 사회는 즉각적인 편안함의 이점과 해로운 의존을 피하기 위해 인간관계 기술을 연습하는 것의 균형을 맞춰야 합니다.
댓글 (0)