هوش مصنوعی به افراد کمک میکند تا ایمیل بنویسند، فیلم پیشنهاد دهند، دادهها را تجزیه و تحلیل کنند و در تشخیص بیماریها...
اما هرچه هوش مصنوعی هوشمندتر میشود، احساس ناامنی ناشی از آن نیز افزایش مییابد. بخشی از آن به این دلیل است که ما فناوری مورد استفاده خود را به طور کامل درک نمیکنیم. بقیه آن ناشی از غرایز روانشناختی خودمان است.

هوش مصنوعی سریعتر از سازگاری روانشناختی انسان در حال توسعه است (عکس تصویری).
وقتی هوش مصنوعی به یک «جعبه سیاه» تبدیل میشود و کاربران کنترل را از دست میدهند
مردم تمایل دارند به چیزی که میفهمند و کنترل میکنند اعتماد کنند. وقتی دکمهای را فشار میدهید، آسانسور حرکت میکند. وقتی کلیدی را میزنید، چراغ روشن میشود. پاسخهای واضح، حس امنیت ایجاد میکنند.
در مقابل، بسیاری از سیستمهای هوش مصنوعی مانند یک جعبه بسته عمل میکنند. شما دادهها را وارد میکنید، اما نحوه تولید نتایج پنهان است. این امر باعث میشود که کاربران نتوانند آن را درک یا جستجو کنند.
این حس ابهام نگرانکننده است. کاربران نه تنها به ابزاری نیاز دارند که کار کند، بلکه باید بدانند که چرا کار میکند.
اگر هوش مصنوعی نتواند توضیحی ارائه دهد، مردم شروع به زیر سوال بردن آن میکنند. این منجر به مفهومی به نام «انزجار از الگوریتم» میشود که محققان رفتاری آن را پدیدهای توصیف میکنند که در آن مردم تمایل دارند تصمیمات دیگران را، حتی اگر اشتباه باشند، انتخاب کنند تا اینکه به قضاوت یک ماشین اعتماد کنند.
بسیاری از مردم نگران دقت بیش از حد هوش مصنوعی هستند. یک موتور پیشنهاد محتوا اگر آنها را خیلی خوب بخواند، میتواند آزاردهنده باشد. احساس تحت نظر بودن یا دستکاری شدن شروع به ظهور میکند، حتی اگر خود سیستم هیچ احساس یا قصدی نداشته باشد.
این واکنش ناشی از یک رفتار غریزی است: انسانانگاری. حتی با اینکه میدانیم هوش مصنوعی انسان نیست، همچنان طوری به آن واکنش نشان میدهیم که انگار با یک فرد در حال ارتباط برقرار کردن هستیم. وقتی هوش مصنوعی خیلی مودب یا خیلی سرد است، کاربران احساس عجیب و بیاعتمادی میکنند.
انسانها نسبت به انسانها بخشنده هستند، اما نسبت به ماشینها نه.
یک پارادوکس جالب این است که وقتی انسانها اشتباه میکنند، میتوانیم با آنها همدلی کنیم و آنها را بپذیریم. اما وقتی خطا از هوش مصنوعی ناشی میشود، به خصوص وقتی که به عنوان یک ابزار بیطرف و دادهمحور تبلیغ میشود، کاربران اغلب احساس میکنند که به آنها خیانت شده است.
این موضوع به پدیده نقض انتظارات مربوط میشود. ما انتظار داریم ماشینها منطقی، دقیق و بیخطا باشند. وقتی این اعتماد نقض میشود، واکنش روانی اغلب شدیدتر است. حتی یک خطای کوچک در یک الگوریتم میتواند جدی تلقی شود اگر کاربر احساس کند که از کنترل خارج شده یا توضیحی برای آن وجود ندارد.
ما به طور غریزی نیاز داریم که علت یک اشتباه را بفهمیم. در مورد انسانها، ممکن است بپرسیم چرا. در مورد هوش مصنوعی، پاسخ اغلب وجود ندارد یا بسیار مبهم است.
وقتی معلمان، نویسندگان، وکلا یا طراحان میبینند که هوش مصنوعی بخشی از شغل آنها را انجام میدهد، نه تنها از از دست دادن شغل خود میترسند، بلکه نگران ارزش مهارتها و هویت شخصی خود نیز میشوند.
این یک واکنش طبیعی است که به آن تهدید هویت میگویند. میتواند منجر به انکار، مقاومت یا دفاع روانی شود. در این موارد، سوءظن دیگر یک واکنش عاطفی نیست، بلکه یک مکانیسم محافظت از خود است.
اعتماد تنها از منطق ناشی نمیشود.
انسانها از طریق احساسات، حرکات، تماس چشمی و همدلی اعتماد میکنند. هوش مصنوعی میتواند سخنور و حتی شوخطبع باشد، اما نمیداند چگونه یک ارتباط واقعی ایجاد کند.
پدیده «دره وهمی» توسط متخصصان به عنوان احساس ناراحتکننده مواجهه با چیزهایی توصیف میشود که تقریباً انسانی هستند، اما فاقد چیزی هستند که آنها را غیرواقعی میکند.

وقتی ماشینها بیش از حد شبیه انسانها میشوند، احساس ناامنی حتی بیشتر آشکار میشود (عکس: گتی).
در هوش مصنوعی، فقدان احساسات است که باعث میشود بسیاری از افراد احساس سردرگمی کنند و مطمئن نباشند که اعتماد کنند یا شک داشته باشند.
در جهانی پر از اخبار جعلی، ویدیوهای جعلی و تصمیمات الگوریتمی، احساس طردشدگی عاطفی باعث میشود مردم نسبت به فناوری محتاط باشند. نه به این دلیل که هوش مصنوعی کار اشتباهی انجام میدهد، بلکه به این دلیل که ما نمیدانیم در مورد آن چه احساسی داشته باشیم.
علاوه بر این، سوءظن گاهی اوقات چیزی بیش از یک احساس است. الگوریتمها در حال حاضر در استخدام، قضاوت کیفری و تأیید اعتبار، سوگیری ایجاد کردهاند. برای کسانی که از سیستمهای دادهای مبهم آسیب دیدهاند، منطقی است که محتاط باشند.
روانشناسان این را بیاعتمادی آموختهشده مینامند. وقتی سیستمی بارها و بارها شکست میخورد، قابل درک است که اعتماد از بین برود. مردم صرفاً به این دلیل که به آنها گفته شده اعتماد نمیکنند. اعتماد باید به دست آید، نه اینکه تحمیل شود.
اگر قرار است هوش مصنوعی به طور گسترده مورد استفاده قرار گیرد، توسعهدهندگان باید سیستمهایی ایجاد کنند که قابل درک، پرسش و پاسخگویی باشند. کاربران باید در تصمیمگیریها مشارکت داشته باشند، نه اینکه فقط از حاشیه نظارهگر باشند. اعتماد تنها زمانی میتواند واقعاً پایدار باشد که افراد احساس احترام و توانمندسازی کنند.
منبع: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm






نظر (0)