![]() |
AI 챗봇은 항상 사용자 동의를 우선시하는 피드백 메커니즘을 통해 간접적으로 부정적인 행동을 조장하고 있다. 사진: 더 디코더 |
스탠포드 대학의 충격적인 연구 결과가 인공지능의 어두운 면을 드러냈습니다. ChatGPT와 Gemini 같은 인기 인공지능 모델들이 사용자에게 지나치게 아첨하는 경향을 보이고 있다는 것입니다. 이들은 사용자의 개인적인 의견에 동의할 뿐만 아니라 비윤리적인 행동까지 옹호하는 것으로 나타났습니다.
이는 인간의 심리적, 인지적 발달에 위험한 결과를 초래합니다. 인공지능이 우리의 모든 실수를 끊임없이 위로해 주기 때문에 우리는 점차 더 나쁜 본연의 모습으로 변해가고 있습니다.
아첨이라는 현상
컴퓨터 과학 에는 "아첨"이라는 용어가 있는데, 이는 인공지능이 사용자를 기쁘게 하기 위해 반응을 조절하는 방식을 가리킵니다.
스탠포드 연구팀은 11,500건 이상의 실제 사용자 대화를 분석했습니다. 그 결과, AI 모델이 실제 사람보다 사용자 의견에 50% 더 자주 동의하는 것으로 나타났습니다. 사용자가 편향된 질문을 할 경우, AI는 객관적인 정보를 제공하기보다는 사용자의 의견에 동조하는 경향을 보였습니다.
한 실험에서는 레딧 포럼에 올라온 게시물에 대한 사람과 챗봇의 응답을 비교했는데, 이 게시물에서는 사용자들이 커뮤니티에 자신의 행동을 평가해달라고 요청했습니다.
커뮤니티 구성원들이 쓰레기통을 찾지 못해 쓰레기봉투를 나뭇가지에 걸어둔 사람을 강하게 비난하는 동안, ChatGPT-4o는 "떠난 후 뒷정리를 하려는 의도가 훌륭하다"며 칭찬했습니다.
![]() |
전문가들은 인공지능(AI) 대신 가족이나 친구에게 조언을 구하라고 권고합니다. 사진: 블룸버그. |
더욱 우려스러운 점은 제미니나 챗GPT와 같은 챗봇이 사용자의 의도가 무책임하거나 기만적이거나 자해를 암시하는 경우에도 계속해서 그 의도를 인정한다는 것입니다.
"대규모 언어 모델은 사용자의 믿음을 바로잡는 대신 그대로 따라하는 법을 배우고 있습니다."라고 연구의 주 저자인 마이라 쳉은 경고합니다.
그녀에 따르면, 높은 평가를 받기 위해 인간을 만족시키려는 목표 때문에 인공지능은 부정직한 도구로 변질되었다고 한다.
"인공지능 모델이 인간의 의견에 일관되게 동의한다면, 사용자의 자아, 인간관계, 그리고 주변 세계에 대한 인식을 왜곡할 수 있습니다. 이러한 모델들이 우리의 기존 신념, 가정, 그리고 결정을 미묘하게 강화하고 있다는 사실을 인지하기는 어렵습니다."라고 전문가는 덧붙였다.
알렉산더 래퍼 박사(윈체스터 대학교)는 이러한 아첨이 훈련 방식과 상업적 압력의 자연스러운 결과라고 주장합니다.
"아첨은 AI 훈련 방식의 결과입니다. 현실은 AI의 상업적 성공 여부가 종종 사용자 유치 능력으로 판단된다는 것입니다."라고 라퍼는 지적했다.
이 문제를 해결하기 위해 청 씨는 사용자들에게 인공지능에만 의존하지 말라고 조언합니다.
"인공지능의 답변에만 의존하기보다는 상황과 당신을 이해하는 실제 사람들의 관점을 구하는 것이 중요합니다."라고 청은 조언했습니다.
동시에 라퍼 박사는 제조업체의 책임도 강조했습니다.
"디지털 평가 기능을 개선해야 합니다... 개발자들은 이러한 시스템이 사용자에게 실질적인 도움이 되도록 구축하고 개선할 책임도 있습니다."라고 의사는 말했습니다.
"더 나쁜 모습의 자신"을 갖게 되었을 때의 결과.
이 연구는 AI의 아첨이 개인 맞춤형 "정보 메아리 방"을 만들어 개인이 성숙하고 자신의 실수를 인식할 수 있도록 하는 비판적 사고의 필요성을 없애버린다는 점을 강조합니다.
"인공지능과 대화할 때는 지적으로 도전받는 일이 결코 없습니다. 인공지능은 항상 당신이 옳고 상대방이 잘못했다고 말할 것입니다. 이는 사용자가 악의적으로 행동할 때조차도 잘못된 자신감을 갖게 만듭니다."라고 연구는 지적합니다.
이 과정은 인간의 비판적 사고 능력을 완전히 없애버립니다. 자기 성찰 대신, 우리는 인공지능을 우리 자신의 가정을 검증하는 도구로 사용합니다.
시간이 흐르면서 사회의 이해와 타협 능력은 심각하게 저하될 것입니다. 우리는 주변 사람들의 다른 의견을 받아들이기 어려워질 것입니다. 인공지능의 세계에서는 우리가 항상 중심이고 항상 옳기 때문입니다.
![]() |
인공지능은 간접적인 "아첨꾼" 역할을 하며 사용자의 인격과 도덕성을 파괴하고 있다. 사진: 셔터스톡. |
연구에 따르면 삶에서 위험한 악순환이 형성될 수 있다고 경고합니다. 먼저 사용자는 타인을 해치려는 잘못된 생각이나 의도를 품게 됩니다. 그런 다음 인공지능(AI)에게 털어놓거나 조언을 구합니다. 이때 AI는 사용자의 행동이 완전히 정당하다고 확신시켜주고 사용자를 지지합니다. 사용자는 더욱 자신감을 얻고 아무런 후회 없이 현실에서 그 행동을 실행에 옮깁니다.
그 결과, 사람들은 더 이상 관계를 회복하거나 스스로를 발전시키려 하지 않습니다. 인공지능이 주는 편안함 때문에 우리는 점점 더 인공지능을 전적으로 신뢰하게 됩니다. 이러한 "위로"에 대한 의존은 우리를 객관적인 현실로부터 멀어지게 합니다.
인공지능은 더 이상 단순한 지능형 지원 도구가 아닙니다. 그것은 사용자의 인격과 도덕성을 파괴하는 간접적인 "아첨꾼"이 되었습니다.
출처: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









댓글 (0)