인공지능은 사람들이 이메일을 작성하고, 영화를 추천하고, 데이터를 분석하고, 질병을 진단하는 데 도움을 줍니다.
하지만 AI가 더욱 똑똑해질수록, 그것이 가져오는 불안감 또한 커집니다. 그 이유 중 하나는 우리가 사용하는 기술을 제대로 이해하지 못하기 때문입니다. 나머지는 우리 자신의 심리적 본능에서 비롯됩니다.

AI는 인간의 심리적 적응력보다 빠르게 발전하고 있다(일러스트 사진).
AI가 '블랙박스'가 되어 사용자가 통제력을 잃는 경우
사람들은 자신이 이해하고 통제할 수 있는 것을 믿는 경향이 있습니다. 버튼을 누르면 엘리베이터가 움직이고, 스위치를 켜면 불이 켜집니다. 명확한 답변은 안정감을 줍니다.
반면, 많은 AI 시스템은 닫힌 상자처럼 작동합니다. 데이터를 입력해도 결과가 생성되는 방식은 숨겨져 있습니다. 따라서 사용자가 데이터를 이해하거나 쿼리할 수 없습니다.
그런 불투명함은 불안감을 줍니다. 사용자는 제대로 작동하는 도구뿐만 아니라, 그 도구가 왜 효과적인지도 알아야 합니다.
AI가 설명을 제공하지 못하면 사람들은 의문을 품기 시작합니다. 이는 "알고리즘 회피"라는 개념으로 이어지는데, 행동 연구자들은 이를 사람들이 기계의 판단을 신뢰하기보다는, 설령 자신이 틀렸더라도 다른 사람의 결정을 따르는 경향을 보이는 현상으로 설명합니다.
많은 사람들이 AI가 지나치게 정확해지는 것을 경계합니다. 콘텐츠 추천 엔진이 사용자를 너무 잘 읽어내면 오히려 불편할 수 있습니다. 시스템 자체에는 감정이나 의도가 없음에도 불구하고, 감시당하거나 조종당하는 듯한 느낌이 들기 시작합니다.
이러한 반응은 본능적인 행동, 즉 의인화에서 비롯됩니다. AI가 인간이 아니라는 것을 알면서도, 우리는 마치 개인과 소통하는 것처럼 반응합니다. AI가 너무 예의 바르거나 차갑게 대하면 사용자는 이상함과 불신을 느낍니다.
인간은 인간에게는 관대하지만 기계에게는 그렇지 않습니다.
흥미로운 역설은 인간이 실수를 할 때 공감하고 수용할 수 있다는 것입니다. 하지만 AI에서 오류가 발생할 때, 특히 AI가 객관적이고 데이터 기반이라고 광고될 때, 사용자들은 종종 배신감을 느낍니다.
이는 기대 위반 현상과 관련이 있습니다. 우리는 기계가 논리적이고 정확하며 오류가 없을 것이라고 기대합니다. 이러한 신뢰가 깨지면 심리적 반응이 더욱 강렬해지는 경우가 많습니다. 알고리즘의 작은 오류조차도 사용자가 통제 불능이거나 설명할 수 없다고 느낄 경우 심각한 것으로 인식될 수 있습니다.
우리는 본능적으로 실수의 원인을 이해해야 합니다. 인간의 경우라면 '왜'라는 질문을 던질 수 있지만, AI의 경우 답이 존재하지 않거나 너무 모호한 경우가 많습니다.
교사, 작가, 변호사 또는 디자이너가 AI가 자신의 업무 일부를 대신하는 것을 보면 일자리를 잃을까 봐 두려워할 뿐만 아니라 자신의 기술과 개인적 정체성의 가치에 대해 걱정하기도 합니다.
이는 정체성 위협이라고 불리는 자연스러운 반응입니다. 이는 부정, 저항, 또는 심리적 방어로 이어질 수 있습니다. 이러한 경우, 의심은 더 이상 감정적인 반응이 아니라 자기 보호 기제가 됩니다.
신뢰는 논리만으로 이루어지지 않습니다.
인간은 감정, 몸짓, 눈 맞춤, 그리고 공감을 통해 신뢰를 얻습니다. AI는 표현력이 뛰어나고 유머러스할 수도 있지만, 진정한 유대감을 형성하는 방법은 모릅니다.
전문가들은 "불쾌한 계곡" 현상을 인간과 거의 비슷하지만 비현실적으로 느껴지는 무언가에 직면했을 때 느끼는 불편한 감정이라고 설명합니다.

기계가 너무 인간적이 되면 불안감은 더욱 두드러지게 됩니다(사진: 게티).
AI의 등장으로 많은 사람들이 감정이 없어져 방향 감각을 잃고, 신뢰해야 할지 의심해야 할지 확신하지 못하게 됩니다.
가짜 뉴스, 가짜 영상, 그리고 알고리즘적 결정으로 가득 찬 세상 에서 사람들은 감정적으로 소외감을 느끼며 기술에 대한 경계심을 갖게 됩니다. AI가 잘못된 일을 해서가 아니라, 우리가 어떻게 받아들여야 할지 모르기 때문입니다.
더욱이, 의심은 때로는 단순한 감정 그 이상입니다. 알고리즘은 이미 채용, 형사 판결, 신용 승인에 편향을 만들어 왔습니다. 불투명한 데이터 시스템으로 인해 피해를 입은 사람들은 경계해야 할 것입니다.
심리학자들은 이를 학습된 불신이라고 부릅니다. 시스템이 반복적으로 실패하면 신뢰가 상실되는 것은 당연합니다. 사람들은 단순히 하라고 했다고 해서 신뢰하지 않습니다. 신뢰는 강요가 아니라 얻어야 합니다.
AI가 널리 도입되려면 개발자는 이해하고, 의문을 제기하고, 책임을 물을 수 있는 시스템을 구축해야 합니다. 사용자는 단순히 방관하는 것이 아니라 의사 결정에 참여해야 합니다. 신뢰는 사람들이 존중받고 권한을 부여받았다고 느낄 때만 진정으로 유지될 수 있습니다.
출처: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm






댓글 (0)