Umělá inteligence pomáhá lidem psát e-maily, doporučovat filmy, analyzovat data a diagnostikovat nemoci...
Ale s tím, jak se umělá inteligence stává chytřejší, roste i pocit nejistoty, který s sebou přináší. Částečně je to proto, že plně nerozumíme technologii, kterou používáme. Zbytek pramení z našich vlastních psychologických instinktů.

Umělá inteligence se vyvíjí rychleji než lidská psychologická přizpůsobivost (ilustrační foto).
Když se umělá inteligence stane „černou skříňkou“ a uživatelé ztratí kontrolu
Lidé mají tendenci důvěřovat tomu, čemu rozumí a co ovládají. Když stisknete tlačítko, výtah se pohne. Když přepnete spínač, rozsvítí se světlo. Jasné reakce vytvářejí pocit bezpečí.
Naproti tomu mnoho systémů umělé inteligence funguje jako uzavřená krabice. Zadáváte data, ale způsob, jakým produkují výsledky, je skrytý. To uživatelům znemožňuje porozumět jim nebo se na ně dotazovat.
Ten pocit neprůhlednosti je znepokojivý. Uživatelé nejen potřebují nástroj, který funguje, ale také potřebují vědět, proč funguje.
Pokud umělá inteligence nedokáže poskytnout vysvětlení, lidé ji začnou zpochybňovat. To vede ke konceptu zvanému „averze k algoritmu“, který behaviorální vědci popisují jako jev, kdy lidé mají tendenci volit rozhodnutí druhých, i když se mýlí, spíše než aby důvěřovali úsudku stroje.
Mnoho lidí se obává, že se umělá inteligence stane příliš přesnou. Systém pro doporučování obsahu může být otravný, pokud je čte příliš dobře. Začíná se objevovat pocit, že jsou sledováni nebo manipulováni, i když samotný systém nemá žádné emoce ani úmysly.
Tato reakce pramení z instinktivního chování: antropomorfismu. I když víme, že umělá inteligence není člověk, stále na ni reagujeme, jako bychom komunikovali s jednotlivcem. Když je umělá inteligence příliš zdvořilá nebo příliš chladná, uživatelé se cítí divně a nedůvěřivě.
Lidé odpouštějí lidem, ale ne strojům.
Zajímavým paradoxem je, že když lidé dělají chyby, můžeme být empatičtí a akceptovat je. Ale když chyba pochází od umělé inteligence, zvláště když je propagována jako objektivní a založená na datech, uživatelé se často cítí zrazeni.
To souvisí s fenoménem narušení očekávání. Očekáváme, že stroje budou logické, přesné a neomylné. Když je tato důvěra narušena, psychologická reakce je často intenzivnější. I malá chyba v algoritmu může být vnímána jako závažná, pokud se uživatel cítí mimo kontrolu nebo nevysvětlitelný.
Instinktivně potřebujeme pochopit příčinu chyby. U lidí se můžeme ptát proč. U umělé inteligence je odpověď často neexistující nebo příliš vágní.
Když učitelé, spisovatelé, právníci nebo designéři vidí, že umělá inteligence dělá část jejich práce, nejenže se bojí ztráty zaměstnání, ale také se obávají o hodnotu svých dovedností a osobní identity.
Toto je přirozená reakce, nazývaná hrozba identity. Může vést k popření, odporu nebo psychologické obraně. V těchto případech již podezřívavost není emocionální reakcí, ale mechanismem sebeobrany.
Důvěra nepramení jen z logiky.
Lidé důvěřují prostřednictvím emocí, gest, očního kontaktu a empatie. Umělá inteligence může být výřečná, dokonce i vtipná, ale neumí vytvořit skutečné spojení.
Fenomén „zlověstného údolí“ odborníci popisují jako nepříjemný pocit z konfrontace s věcmi, které jsou téměř lidské, ale chybí jim něco, co je činí neskutečnými.

Když se stroje stanou příliš lidskými, pocit nejistoty se stává ještě zřetelnějším (Foto: Getty).
U umělé inteligence je to právě absence emocí, která mnoho lidí dezorientuje a nechává nejisté, zda důvěřovat, nebo pochybovat.
Ve světě plném falešných zpráv, falešných videí a algoritmických rozhodnutí vedou pocity emocionálního opuštění k ochraně lidí před technologiemi. Ne proto, že by umělá inteligence dělala něco špatně, ale proto, že nevíme, jak se k ní cítit.
Navíc podezření je někdy víc než jen pocit. Algoritmy již vytvořily zkreslení při náboru, trestním posuzování a schvalování úvěrů. Pro ty, kteří utrpěli škodu v důsledku neprůhledných datových systémů, dává smysl být ostražití.
Psychologové tomu říkají naučená nedůvěra. Když systém opakovaně selhává, je pochopitelné, že důvěra se ztratí. Lidé nebudou důvěřovat jen proto, že jim to někdo řekne. Důvěra si musí být zasloužená, ne vnucená.
Pokud má být umělá inteligence široce přijata, vývojáři musí vytvořit systémy, kterým lze porozumět, které lze zpochybňovat a které lze volat k odpovědnosti. Uživatelé se musí podílet na rozhodování, a ne jen přihlížet. Důvěru lze skutečně udržet pouze tehdy, když se lidé cítí respektováni a zmocněni.
Zdroj: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm






Komentář (0)