Sztuczna inteligencja pomaga ludziom pisać e-maile, polecać filmy, analizować dane i diagnozować choroby...
Ale wraz ze wzrostem inteligencji sztucznej inteligencji, rośnie również poczucie niepewności, jakie ze sobą niesie. Częściowo wynika to z tego, że nie do końca rozumiemy technologię, z której korzystamy. Reszta wynika z naszych własnych instynktów psychologicznych.

Sztuczna inteligencja rozwija się szybciej niż ludzka zdolność adaptacji psychologicznej (zdjęcie ilustracyjne).
Kiedy sztuczna inteligencja staje się „czarną skrzynką”, a użytkownicy tracą kontrolę
Ludzie zazwyczaj ufają temu, co rozumieją i kontrolują. Naciśnięcie przycisku uruchamia windę. Przesunięcie przełącznika zapala światło. Jasne odpowiedzi dają poczucie bezpieczeństwa.
W przeciwieństwie do tego, wiele systemów AI działa jak zamknięta skrzynka. Wprowadzasz dane, ale sposób, w jaki generują wyniki, jest ukryty. To uniemożliwia użytkownikom ich zrozumienie lub wyszukiwanie.
To poczucie nieprzejrzystości jest niepokojące. Użytkownicy potrzebują nie tylko narzędzia, które działa, ale także muszą wiedzieć, dlaczego działa.
Jeśli sztuczna inteligencja nie potrafi udzielić wyjaśnienia, ludzie zaczynają ją kwestionować. Prowadzi to do koncepcji zwanej „awersją do algorytmów”, którą badacze behawioralni opisują jako zjawisko, w którym ludzie skłaniają się ku decyzjom innych, nawet jeśli są one błędne, zamiast ufać osądowi maszyny.
Wiele osób obawia się, że sztuczna inteligencja stanie się zbyt dokładna. Silnik rekomendacji treści może być irytujący, jeśli zbyt dokładnie je interpretuje. Zaczyna pojawiać się poczucie bycia obserwowanym lub manipulowanym, mimo że sam system nie kieruje się emocjami ani intencjami.
Ta reakcja wynika z instynktownego zachowania: antropomorfizmu. Chociaż wiemy, że sztuczna inteligencja nie jest człowiekiem, nadal reagujemy na nią tak, jakbyśmy komunikowali się z jednostką. Gdy sztuczna inteligencja jest zbyt uprzejma lub zbyt chłodna, użytkownicy czują się dziwnie i nieufnie.
Ludzie są wyrozumiali dla ludzi, ale nie dla maszyn.
Ciekawym paradoksem jest to, że kiedy ludzie popełniają błędy, potrafimy być empatyczni i tolerancyjni. Ale kiedy błąd pochodzi od sztucznej inteligencji, zwłaszcza reklamowanej jako obiektywna i oparta na danych, użytkownicy często czują się zdradzeni.
Jest to związane ze zjawiskiem naruszeń oczekiwań. Oczekujemy od maszyn logiki, dokładności i nieomylności. Gdy to zaufanie zostaje naruszone, reakcja psychologiczna często staje się silniejsza. Nawet niewielki błąd w algorytmie może zostać uznany za poważny, jeśli użytkownik czuje się pozbawiony kontroli lub niewyjaśniony.
Instynktownie musimy zrozumieć przyczynę błędu. W przypadku ludzi moglibyśmy zapytać „dlaczego”. W przypadku sztucznej inteligencji odpowiedź często nie istnieje lub jest zbyt niejasna.
Kiedy nauczyciele, pisarze, prawnicy czy projektanci widzą, że sztuczna inteligencja wykonuje część ich obowiązków, nie tylko boją się utraty pracy, ale także martwią się o wartość swoich umiejętności i tożsamości.
To naturalna reakcja, zwana zagrożeniem tożsamości. Może prowadzić do zaprzeczenia, oporu lub psychologicznej obrony. W takich przypadkach podejrzliwość nie jest już reakcją emocjonalną, lecz mechanizmem samoobrony.
Zaufanie nie bierze się wyłącznie z logiki.
Ludzie ufają poprzez emocje, gesty, kontakt wzrokowy i empatię. Sztuczna inteligencja potrafi być elokwentna, a nawet dowcipna, ale nie potrafi stworzyć prawdziwej więzi.
Zjawisko „doliny niepokoju” eksperci opisują jako nieprzyjemne uczucie, jakie towarzyszy konfrontacji z rzeczami niemal ludzkimi, którym jednak brakuje czegoś, co czyniłoby je nierealnymi.

Kiedy maszyny stają się zbyt ludzkie, poczucie niepewności staje się jeszcze bardziej widoczne (zdjęcie: Getty).
W przypadku sztucznej inteligencji to właśnie brak emocji powoduje, że wiele osób czuje się zdezorientowanych i niepewnych, czy ufać, czy wątpić.
W świecie pełnym fałszywych wiadomości, fałszywych filmów i decyzji algorytmicznych, poczucie emocjonalnego porzucenia sprawia, że ludzie obawiają się technologii. Nie dlatego, że sztuczna inteligencja robi coś złego, ale dlatego, że nie wiemy, co o niej myśleć.
Co więcej, podejrzliwość to czasami coś więcej niż tylko przeczucie. Algorytmy już przyczyniły się do powstania uprzedzeń w procesie rekrutacji, osądzania spraw karnych i przyznawania kredytów. Osoby, które ucierpiały z powodu nieprzejrzystych systemów danych, powinny zachować ostrożność.
Psychologowie nazywają to wyuczoną nieufnością. Kiedy system wielokrotnie zawodzi, zrozumiała jest utrata zaufania. Ludzie nie będą ufać tylko dlatego, że im się każe. Zaufanie trzeba sobie wypracować, a nie narzucać.
Aby sztuczna inteligencja mogła zostać powszechnie przyjęta, programiści muszą tworzyć systemy, które można zrozumieć, kwestionować i pociągać do odpowiedzialności. Użytkownicy muszą uczestniczyć w podejmowaniu decyzji, a nie tylko biernie przyglądać się. Zaufanie można w pełni utrzymać tylko wtedy, gdy ludzie czują się szanowani i mają poczucie sprawczości.
Source: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm






Komentarz (0)