Yapay zeka, insanların e-posta yazmasına, film önermesine, verileri analiz etmesine ve hastalıkların teşhis edilmesine yardımcı oluyor...
Ancak yapay zeka akıllandıkça, beraberinde getirdiği güvensizlik hissi de artıyor. Bunun bir kısmı, kullandığımız teknolojiyi tam olarak anlamamamızdan kaynaklanıyor. Geri kalanı ise kendi psikolojik içgüdülerimizden kaynaklanıyor.

Yapay zeka, insanın psikolojik uyum yeteneğinden daha hızlı gelişiyor (İllüstrasyon fotoğrafı).
Yapay zeka bir "kara kutu" haline geldiğinde ve kullanıcılar kontrolü kaybettiğinde
İnsanlar anladıkları ve kontrol edebildikleri şeylere güvenme eğilimindedir. Bir düğmeye bastığınızda asansör hareket eder. Bir düğmeye bastığınızda ışık yanar. Net yanıtlar bir güvenlik hissi yaratır.
Buna karşılık, birçok yapay zeka sistemi kapalı bir kutu gibi çalışır. Veri girersiniz, ancak sonuçların nasıl üretildiği gizlidir. Bu da kullanıcıların anlamasını veya sorgulamasını imkansız hale getirir.
Bu belirsizlik hissi rahatsız edici. Kullanıcıların yalnızca işe yarayan bir araca değil, aynı zamanda neden işe yaradığını da bilmeleri gerekiyor.
Yapay zeka bir açıklama sunamadığında, insanlar onu sorgulamaya başlar. Bu durum, davranış araştırmacılarının, insanların bir makinenin yargısına güvenmek yerine, yanlış olsalar bile başkalarının kararlarını tercih etme eğiliminde olduğu bir olgu olarak tanımladığı "algoritma kaçınması" adı verilen bir kavrama yol açar.
Birçok kişi yapay zekanın aşırı doğru olmasından endişe duyuyor. Bir içerik öneri motoru, içerikleri çok iyi okursa can sıkıcı olabilir. Sistemin kendisinde hiçbir duygu veya niyet olmasa bile, izleniyor veya yönlendiriliyormuşsunuz hissi oluşmaya başlar.
Bu tepki içgüdüsel bir davranıştan, yani antropomorfizmden kaynaklanıyor. Yapay zekânın insan olmadığını bilsek de, ona sanki bir bireyle iletişim kuruyormuş gibi tepki veriyoruz. Yapay zekâ çok kibar veya çok soğuk davrandığında, kullanıcılar tuhaf ve güvensiz hissediyor.
İnsanlar insanlara karşı affedicidir, ama makinelere karşı değil.
İlginç bir paradoks, insanların hata yaptığında empati kurup kabullenebilmeleridir. Ancak hata yapay zekadan kaynaklandığında, özellikle de nesnel ve veri odaklı olarak tanıtıldığında, kullanıcılar genellikle ihanete uğramış hissederler.
Bu, beklenti ihlalleri olgusuyla ilişkilidir. Makinelerin mantıklı, doğru ve yanılmaz olmasını bekleriz. Bu güven ihlal edildiğinde, psikolojik tepki genellikle daha yoğun olur. Bir algoritmadaki küçük bir hata bile, kullanıcı kontrolden çıkmış veya açıklanamayan bir durum hissediyorsa ciddi olarak algılanabilir.
Bir hatanın nedenini içgüdüsel olarak anlamamız gerekir. İnsanlar söz konusu olduğunda "neden?" diye sorabiliriz. Yapay zeka söz konusu olduğunda ise cevap genellikle yoktur veya çok belirsizdir.
Öğretmenler, yazarlar, avukatlar veya tasarımcılar yapay zekanın işlerinin bir kısmını yaptığını gördüklerinde yalnızca işlerini kaybetmekten korkmakla kalmıyor, aynı zamanda becerilerinin ve kişisel kimliklerinin değeri konusunda da endişe duyuyorlar.
Bu, kimlik tehdidi adı verilen doğal bir tepkidir. İnkar, direnç veya psikolojik savunmaya yol açabilir. Bu durumlarda şüphe artık duygusal bir tepki değil, kendini koruma mekanizmasıdır.
Güven sadece mantıktan gelmez.
İnsanlar duygular, jestler, göz teması ve empati yoluyla güvenir. Yapay zeka kendini ifade edebilir, hatta esprili olabilir, ancak gerçek bir bağ kurmayı bilmez.
Uzmanlar, "ürkütücü vadi" olgusunu, neredeyse insani olan, ancak onları gerçek dışı kılan bir şeyin bulunmadığı şeylerle karşılaşmanın yarattığı rahatsız edici his olarak tanımlıyor.

Makineler çok insancıllaştıkça güvensizlik duygusu daha da belirginleşiyor (Fotoğraf: Getty).
Yapay zekada duygu eksikliği, birçok insanın yönünü kaybetmesine, güvenip güvenmeme konusunda kararsız kalmasına neden oluyor.
Sahte haberler, sahte videolar ve algoritmik kararlarla dolu bir dünyada , duygusal terk edilmişlik hissi insanları teknolojiye karşı temkinli hale getiriyor. Yapay zekanın yanlış bir şey yapmasından değil, bu konuda nasıl hissedeceğimizi bilemememizden kaynaklanıyor.
Dahası, şüphe bazen sadece bir histen daha fazlasıdır. Algoritmalar işe alım, cezai yargılama ve kredi onayında önyargılara yol açmıştır. Şeffaf olmayan veri sistemlerinden zarar görenlerin dikkatli olması mantıklıdır.
Psikologlar buna öğrenilmiş güvensizlik diyor. Bir sistem sürekli başarısız olduğunda, güvenin kaybolması anlaşılabilir bir durumdur. İnsanlar sadece kendilerine söylendiği için güvenmezler. Güven kazanılmalıdır, dayatılmamalıdır.
Yapay zekanın yaygın olarak benimsenmesi için, geliştiricilerin anlaşılabilen, sorgulanabilen ve sorumlu tutulabilen sistemler oluşturmaları gerekir. Kullanıcıların sadece kenardan izlemek yerine, karar alma süreçlerine dahil olmaları gerekir. Güven, ancak insanlar saygı gördüklerini ve yetkilendirildiklerini hissettiklerinde gerçek anlamda sürdürülebilir.
Kaynak: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm






Yorum (0)