الگوریتم تحریک نفرت
الگوریتمهای رسانههای اجتماعی دیگر فقط برای پیشنهاد محتوای سرگرمکننده نیستند، بلکه به تقویت نفرتپراکنی و ایدئولوژی افراطی نیز میپردازند. آنتونیو گوترش، دبیرکل سازمان ملل متحد، هشدار داده است که برخی از پلتفرمهای رسانههای اجتماعی به «زبالهدانهای سمی» پر از نفرتپراکنی و اطلاعات نادرست تبدیل شدهاند که به گسترش افراطگرایی دامن میزنند.
مطالعات دنیای واقعی نشان میدهد که تنها در عرض چند روز، الگوریتمهای پیشنهاد میتوانند مشکل را تشدید کنند. برای مثال، یک مطالعه در بریتانیا نشان داد که الگوریتم تیکتاک تنها در عرض پنج روز، توصیههای محتوای زنستیزانه را از ۱۳٪ به ۵۶٪ ویدیوها چهار برابر کرده است.
محققان توضیح میدهند که این الگوریتم بهطور خودکار نقاط ضعف کاربران (مانند احساس تنهایی، از دست دادن کنترل، نفرت) را هدف قرار میدهد و محتوای افراطگرایانه را به «سرگرمی» جذابی برای جذب بینندگان تبدیل میکند.
اکنون، در رسانههای اجتماعی، حتی اطلاعات کوچک یا شایعات بیاساس میتوانند به راحتی به محرکی برای خشونت تبدیل شوند. یک نمونه بارز، شورشهای بریتانیا در سال ۲۰۲۴ است. پس از حمله در ساوتپورت، شایعات دروغین درباره مظنون - مبنی بر اینکه او مسلمان یا پناهنده بوده است - به سرعت در رسانههای اجتماعی، همراه با سخنان ضد اسلامی و ضد مهاجر، پخش شد. طبق گزارش سال ۲۰۲۴ دفتر حسابداری عمومی ایالات متحده (GAO)، تقریباً یک سوم از کاربران اینترنت در معرض سخنان نفرتپراکن آنلاین قرار گرفتهاند.
به طور خاص، مجموعهای از اعتراضات جدی اخیر، شورشهای نسل زد یا دانشجویان در کشورهای مختلف، از آسیا، آفریقا تا آمریکای لاتین، همگی از طریق پلتفرمهای رسانههای اجتماعی آغاز و تحریک شدند، تقریباً با سناریوی یکسان: سوءاستفاده از یک موضوع و سپس تحریک کل جامعه.

بیشتر جهان در "توهم" غوطهور است
با انفجار هوش مصنوعی، اوضاع از کنترل خارج میشود، هوش مصنوعیای که تقریباً به هر کسی اجازه میدهد یک «کارخانه اخبار جعلی» را در مقیاس و سرعتی بیسابقه ایجاد کند. مدلهای هوش مصنوعی مانند GPT، Claude یا LLaMA میتوانند بهطور خودکار مجموعهای از مقالات، تصاویر و ویدیوهای تحریفشده را در کسری از ثانیه تولید کنند. یک سیستم ربات هوش مصنوعی میتواند بهطور همزمان هزاران پست یا نظر ایجاد و به اشتراک بگذارد و اخبار جعلی و سمی را به «روندهای» آنلاین تبدیل کند.
یک مطالعه توسط دانشگاه RIT در ایالات متحده تأکید کرد: «هوش مصنوعی باعث شده است که انواع اطلاعات نادرست به سرعت تکثیر شوند... رباتهای هوش مصنوعی میتوانند این محتوا را در سراسر اینترنت پخش کنند، زیرا برای ایجاد آنها نیازی به وابستگی به انسانها ندارند.»
امروزه، تنها با چند ده دلار در ماه برای یک ابزار هوش مصنوعی، یک فرد میتواند هزاران تصویر و ویدیوی جعلی از هر چیزی، از صدا، عکس گرفته تا ویدیو، ایجاد کند. سطح پیچیدگی و شیوع این کار آنقدر زیاد است که امروزه همه ما این فکر را در ذهن خود داریم: آیا آنچه در رسانههای اجتماعی میبینیم، توسط هوش مصنوعی تولید شده است؟
اما طنز ماجرا اینجاست که بیشتر مردم جهان هر روز ساعتها در آن دنیای «مجازی» غرق میشوند - حتی از آن مانند یک «اعتیاد» لذت میبرند. طبق گزارش دیجیتال ۲۰۲۵، حدود ۵.۲ تا ۵.۶ میلیارد نفر از شبکههای اجتماعی استفاده میکنند که معادل ۶۴٪ از جمعیت جهان است. و میانگین زمان استفاده هر فرد از شبکههای اجتماعی حدود ۲ ساعت و ۲۰ دقیقه در روز در نوسان است.
نیاز به کنترل بمبهای «اتمی»
با تولید اخبار جعلی و اطلاعات نادرست با نرخی که به طور فزایندهای ارزان و خطرناک میشود، کنترل محتوا در اینترنت تقریباً از کنترل انسان خارج شده است. لوکاش اولجنیک، متخصص فناوری در کالج کینگ لندن (بریتانیا)، اظهار داشت: «هر ماه، کارخانههای [اخبار جعلی] ارزانتر، دقیقتر و تشخیص آنها دشوارتر میشود.»
در همین حال، یک مطالعه RAND در سال ۲۰۲۴ اشاره کرد که چشمانداز هوش مصنوعی که قادر به «پر کردن اینترنت» با حسابهای جعلی رسانههای اجتماعی باشد، واضح و تقریباً اجتنابناپذیر است، بدون هیچ گونه پیچیدگی.
فناوری هستهای زمانی اختراع بزرگی برای بشر بود، همانطور که رسانههای اجتماعی نیز همینطور بودند. با این حال، اگر کنترل نشوند، میتوانند فاجعهبار باشند. به همین ترتیب، اگر رسانههای اجتماعی، هوش مصنوعی و الگوریتمهای تقویتکننده به حال خود رها شوند، میتوانند «بمبهای اتمی» را در فضای مجازی فعال کنند - و به اندازه کافی قدرتمند باشند که دنیای واقعی را نابود کنند.
منبع: https://congluan.vn/mang-xa-hoi-ai-va-thuat-toan-khuech-dai-su-ket-hop-nguyen-tu-dang-lam-dao-lon-the-gioi-10317608.html






نظر (0)