Vietnam.vn - Nền tảng quảng bá Việt Nam

Varför utnyttjar artificiell intelligens människors djupaste rädslor?

(Dan Tri) – Artificiell intelligens tränger in i varje hörn av livet. Men ju smartare den är, desto mer förvirrade blir människor kring sina övertygelser och känslor.

Báo Dân tríBáo Dân trí12/11/2025

Artificiell intelligens hjälper människor att skriva e-postmeddelanden, rekommendera filmer, analysera data och hjälpa till att diagnostisera sjukdomar...

Men i takt med att AI blir smartare, ökar även känslan av osäkerhet den medför. En del av det beror på att vi inte helt förstår tekniken vi använder. Resten härrör från våra egna psykologiska instinkter.

Vì sao trí tuệ nhân tạo chạm vào nỗi sợ sâu nhất của con người? - 1

AI utvecklas snabbare än mänsklig psykologisk anpassningsförmåga (Illustrationsfoto).

När AI blir en "svart låda" och användarna tappar kontrollen

Människor tenderar att lita på det de förstår och kontrollerar. När du trycker på en knapp rör sig hissen. När du vrider på en strömbrytare tänds ljuset. Tydliga svar skapar en känsla av trygghet.

Däremot fungerar många AI-system som en sluten låda. Du matar in data, men sättet som producerar resultaten är dolt. Det gör det omöjligt för användare att förstå eller fråga.

Den känslan av ogenomskinlighet är oroande. Användare behöver inte bara ett verktyg som fungerar, utan också veta varför det fungerar.

Om AI misslyckas med att ge en förklaring börjar folk ifrågasätta den. Detta leder till ett koncept som kallas ”algoritmaversion”, vilket beteendeforskare beskriver som ett fenomen där människor tenderar att välja andras beslut, även om de har fel, snarare än att lita på en maskins omdöme.

Många människor är försiktiga med att AI blir för exakt. En innehållsrekommendationsmotor kan vara irriterande om den läser dem för bra. Känslan av att bli iakttagen eller manipulerad börjar infinna sig, trots att systemet i sig inte har några känslor eller avsikter.

Denna reaktion härrör från ett instinktivt beteende: antropomorfism. Även om vi vet att AI inte är mänskligt, reagerar vi fortfarande på det som om vi kommunicerar med en individ. När AI är för artig eller för kall känner sig användarna konstiga och misstrogna.

Människor är förlåtande mot människor, men inte mot maskiner.

En intressant paradox är att när människor gör misstag kan vi vara empatiska och accepterande. Men när felet kommer från AI, särskilt när det marknadsförs som objektivt och datadrivet, känner sig användarna ofta förrådda.

Detta är relaterat till fenomenet förväntningsöverträdelser. Vi förväntar oss att maskiner ska vara logiska, noggranna och ofelbara. När det förtroendet bryts blir den psykologiska reaktionen ofta mer intensiv. Även ett litet fel i en algoritm kan uppfattas som allvarligt om användaren känner sig utom kontroll eller oförklarlig.

Vi behöver instinktivt förstå orsaken till ett misstag. Med människor kanske vi frågar oss varför. Med AI är svaret ofta obefintligt eller för vagt.

När lärare, författare, advokater eller designers ser AI göra en del av deras jobb, är de inte bara rädda för att förlora sina jobb utan också oroliga för värdet av sina färdigheter och sin personliga identitet.

Detta är en naturlig reaktion, kallad identitetshot. Den kan leda till förnekelse, motstånd eller psykologiskt försvar. I dessa fall är misstanke inte längre en känslomässig reaktion utan en självskyddsmekanism.

Förtroende kommer inte enbart från logik.

Människor litar på varandra genom känslor, gester, ögonkontakt och empati. AI kan vara vältalig, till och med humoristisk, men den vet inte hur man skapar en verklig kontakt.

Fenomenet ”uncanny valley” beskrivs av experter som den obehagliga känslan av att konfronteras med saker som är nästan mänskliga, men saknar något som gör dem overkliga.

Vì sao trí tuệ nhân tạo chạm vào nỗi sợ sâu nhất của con người? - 2

När maskiner blir för mänskliga blir känslan av osäkerhet ännu tydligare (Foto: Getty).

Med AI är det frånvaron av känslor som gör att många människor känner sig desorienterade, osäkra på om de ska lita på eller tvivla.

I en värld fylld av falska nyheter, falska videor och algoritmiska beslut gör känslor av känslomässig övergivenhet människor försiktiga med teknologi. Inte för att AI gör något fel, utan för att vi inte vet hur vi ska känna inför det.

Dessutom är misstanke ibland mer än bara en känsla. Algoritmer har redan skapat partiskhet vid anställning, straffrättsliga bedömningar och kreditbeviljande. För de som har drabbats av ogenomskinliga datasystem är det klokt att vara försiktiga.

Psykologer kallar detta inlärd misstro. När ett system upprepade gånger misslyckas är det förståeligt att förtroendet går förlorat. Människor kommer inte att lita på andra bara för att de blir tillsagda att göra det. Förtroende måste förtjänas, inte påtvingas.

Om AI ska få ett brett genomslag måste utvecklare skapa system som kan förstås, ifrågasättas och hållas ansvariga. Användare måste vara involverade i beslutsfattandet, snarare än att bara observera från sidlinjen. Förtroende kan bara upprätthållas på riktigt när människor känner sig respekterade och stärkta.

Källa: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm


Kommentar (0)

No data
No data

I samma ämne

I samma kategori

Skönheten i byn Lo Lo Chai under bovetes blomningssäsong
Vindtorkade persimoner - höstens sötma
Ett "rika människors kafé" i en gränd i Hanoi säljer 750 000 VND/kopp
Moc Chau under de mogna persimonernas säsong, alla som kommer blir chockade

Av samma författare

Arv

Figur

Företag

Tay Ninh Song

Aktuella händelser

Politiskt system

Lokal

Produkt