4월에 변호사 밴 슬라이크(미국 사우스캐롤라이나 주 찰스턴 거주)는 심리학자와의 약속을 놓쳤고, 결국 ChatGPT를 이용해 개인적인 문제를 털어놓기로 했습니다.
OpenAI의 챗봇과 가상 대화를 나누며 그는 기계와 사적인 이야기를 나누는 것이 위안이 된다고 말했습니다. 그는 트랜스젠더로서 겪는 두려움과 압박감, 그리고 자신이 살고 있는 나라에서 트랜스젠더 인권에 대한 인정이 부족하다는 현실을 토로했습니다. 반 슬릭은 또한 자신의 성 정체성에 대한 지지 부족과 곧 있을 귀국을 둘러싼 가족과의 갈등에 대해서도 이야기했습니다.
심리상담에 AI 활용
그 후 며칠 동안, 반 슬릭은 하루 중 특정 시간에 문자를 보내 감정을 토로하기 시작했습니다. 점차 그는 ChatGPT의 답변이 더 친밀하고 감정적이라는 것을 느끼기 시작했습니다.
그는 자신의 개인적인 감정을 다른 사람들과 공유할 때, 심지어 심리 상담사와 상담할 때조차 종종 그들에게 부담을 주는 것처럼 느낍니다. 하지만 AI 챗봇을 통해 그는 그런 부담감을 느끼지 않습니다.
"ChatGPT는 실제 사람에게서 듣고 싶은 질문에 답해줍니다. 때로는 그런 격려만으로도 충분할 때가 있죠." 라고 Van Slyck은 말했습니다.
AI는 아직 심리학자를 대체할 수 없습니다. (사진: NurPhoto)
블룸버그에 따르면 2023년은 생성형 AI 챗봇의 초기 단계일 뿐입니다. ChatGPT, Bing 등과 같은 생성형 언어 모델이 전 세계 수백만 명의 사용자에게 사용되고 있지만, 그 미래는 아직 불투명합니다. 오늘날 사용자들은 AI 챗봇을 사용하여 인터넷 검색, 숙제 부정, 소프트웨어 프로그래밍, 레스토랑 예약 등을 수행합니다.
심리 상담에 챗봇을 활용한다는 아이디어는 새로운 것이 아닙니다. 이전에는 엘리자(Eliza)가 세계 최초의 챗봇 중 하나로, 1960년대 매사추세츠 공과대학교(MIT)의 조셉 와이젠바움(Joseph Weizenbaum) 교수가 개발했습니다. 이 챗봇은 심리 상담사와 동일한 기능을 제공하도록 설계되었습니다.
그 후 Woebot과 Wysa처럼 인간의 정신 건강에 초점을 맞춘 여러 챗봇이 등장했습니다. 인간 심리학자와 달리, 이러한 챗봇은 쉴 새 없이 일하며 비용이 거의 들지 않습니다.
AI는 아직 의사를 대체할 수 없다
하지만 편의성에는 많은 단점이 있습니다. ChatGPT, Bard, Bing과 같은 인기 챗봇은 대규모 언어 모델(LLM)을 기반으로 작동하며, 이는 방대한 데이터 세트를 사용하여 매우 설득력 있는 답변이나 정보를 생성할 수 있습니다.
AI 챗봇은 인간 심리학자처럼 심리 상담이나 윤리적, 법적 조언을 제공하도록 설계되지 않았습니다. 현재 AI 챗봇은 사용자가 공유하는 이야기를 체계화할 수 없어 실제 심리학자보다 성능이 떨어집니다.
캔자스대학교 스티븐 일라르디 교수는 "심각한 정신 건강 문제가 있는 경우, AI 챗봇은 정신 건강 전문가를 대체할 수 없습니다."라고 말했습니다 . 그는 이러한 시스템 사용의 위험이 너무 크다며 ChatGPT를 "싸구려 농담"이라고 칭했습니다. 사람들은 개인적인 문제에 대해 이야기할 수 있는 신뢰할 수 있는 사람을 찾아야 합니다.
이 문제에 대응하여 ChatGPT의 모회사인 OpenAI의 대표는 사용자들에게 AI 언어 모델을 사용하여 심각한 건강 상태를 진단하거나 치료하지 말라고 권고했습니다.
OpenAI는 또한 사용자가 AI를 심리학 전문가의 지원을 대체하는 수단으로 사용해서는 안 된다고 권고합니다. (사진: Slashgear)
밴 슬릭과의 대화에서 ChatGPT는 자신이 심리학자가 아니라고 거듭 주장했습니다. ChatGPT 는 "트라우마나 정신 건강 문제를 겪고 있다면 인터넷 콘텐츠가 도움이 될 수는 있지만 전문가의 도움을 대체할 수는 없습니다."라고 답했습니다.
AI와 개인적인 문제를 논의하기는 어렵다
반 슬릭 변호사는 앞으로도 정기적으로 심리학자와 상담하고 ChatGPT에 조언을 구한 후에 상담을 진행할 것이라고 밝혔습니다. "지금까지 ChatGPT의 모든 조언은 매우 합리적이고 통찰력이 넘쳤습니다." 라고 그는 덧붙였습니다.
스티븐 일라르디 교수는 심리 상담 서비스 수요가 증가함에 따라 ChatGPT가 상담 과정에 통합될 수 있다고 밝혔습니다. 오픈소스 AI 커뮤니티인 허깅 페이스(Hugging Face)의 과학자 마가렛 미첼은 AI 챗봇이 핫라인을 운영하고 더 많은 전화 상담을 지원하는 데 활용될 수 있다고 생각합니다.
하지만 전문가들은 AI에 대한 이해가 부족하여 일부 사람들이 심리 상담을 위해 챗봇을 찾게 되고, 이로 인해 문제가 악화될 수 있다는 우려를 표명했습니다. OpenAI는 사용자와 챗봇의 대화를 활용하여 시스템을 평가하고 훈련시키기 때문에 개인정보 보호 또한 논란의 여지가 있습니다. 따라서 많은 사람들이 ChatGPT에 민감한 개인적인 문제를 공유하기를 꺼릴 것입니다.
많은 사람들이 AI 상담이 너무 이상하다고 생각합니다. 캘리포니아주 샌디에이고의 프로젝트 매니저인 아론 로슨은 심리학자로서 ChatGPT를 자주 활용한다고 말했습니다. ChatGPT의 반응은 매우 인간적이지만, 로슨은 여전히 기계와 대화하는 것 같은 느낌을 받습니다.
"저는 그에게 롤플레잉을 해보라고 했지만, 이 연극에서는 어려움을 겪었어요."라고 에런 롤슨이 말했습니다.
(출처: 징뉴스)
유용한
감정
창의적인
고유한
격노
[광고_2]
원천
댓글 (0)