اینها افراد شروری هستند که از فناوری هوش مصنوعی (AI) برای ویرایش چهره و بدن افراد عادی استفاده میکنند و آنها را به افراد معلول تبدیل میکنند، سپس داستانهای غمانگیزی برای فروش محصولات یا درخواست کمک خلق میکنند. تنها هدف، سوءاستفاده از دلسوزی جامعه برای کسب سود غیرقانونی است.

ترفندهای پیچیده
یک مورد معمول که باعث خشم عمومی شد، کانال تیک تاک به نام NL بود که مجموعهای از ویدیوها را در مورد زنی با هر دو دست قطع شده منتشر کرد که سعی داشت برای حمایت از فرزندان خردسالش، محصولات را به صورت آنلاین بفروشد. در این کلیپها، زن در یک اتاق ساده ظاهر میشد، لباسهای سادهای پوشیده بود و از بازوی قطع شده خود برای معرفی محصولات استفاده میکرد و بینندگان را احساساتی و دلسوز میکرد. بسیاری از مردم بدون هیچ تردیدی برای دنبال کردن، به اشتراک گذاشتن گسترده و حتی سفارش محصولات برای کمک به مادر در غلبه بر مشکلات، کلیک کردند. با این حال، وقتی ویدیوها ویروسی شدند، جامعه آنلاین متوجه شد که این در واقع تصویر یک دختر فروشنده معمولی است که با فناوری هوش مصنوعی ویرایش شده تا شبیه یک فرد معلول واقعی به نظر برسد.
ترفند جلب حس ترحم به دامی تبدیل شده است که بسیاری از مردم را وادار میکند تا پول منتقل کنند یا سفارش دهند، زیرا معتقدند که به یک فرد ضعیف و محروم کمک میکنند. آقای دانگ مین کوانگ، در خیابان نگوک لام، بو دِ وارد ( هانوی ) به اشتراک گذاشت: «مادرم به کلیپ زنی با دست قطع شده که اجناسی میفروخت، اعتقاد داشت، بنابراین احساس تأسف کرد و برخی از محصولات فروخته شده توسط این شخص را سفارش داد. وقتی حقیقت را فهمید که فرد معلول فقط تصویری است که توسط هوش مصنوعی ایجاد شده است، بسیار غمگین شد و احساس آزردگی کرد.»
داستان مادر کوانگ منحصر به فرد نیست. صدها نفر دیگر نیز به همین ترتیب فریب خوردهاند. وقتی از مهربانی سوءاستفاده میشود، مردم به تدریج ایمان خود را از دست میدهند و در برابر درخواستهای واقعی کمک مردد میشوند. و پیامد دردناک آن این است که افراد آسیبپذیر واقعاً به شدت آسیب میبینند. نگوین سین در فیسبوک شخصی خود، مورد خانم تران تی نگا (۳۶ ساله در استان فو تو ) - صاحب کانال "نگا تیک کوک" که معلول است (در پایان سال ۲۰۲۴، به دلیل میوکاردیت حاد، مجبور شد هر دو دست و پایش را برای نجات جانش قطع کند) - را به اشتراک گذاشت، که بسیاری از مردم او را به خاطر الهام بخشیدن منظم به اراده خوشبینانهاش برای زندگی میشناسند. با این حال، پس از آنکه موارد زیادی از جعل هویت افراد معلول با استفاده از هوش مصنوعی ظاهر شد، خانم نگا مظنون به استفاده از هوش مصنوعی برای جعل هویت افراد معلول شد.
در پخش زندههای اخیر، خانم نگا بارها ناراحت شد وقتی برخی از کاربران رسانههای اجتماعی بارها از او خواستند که «دستش را بالا ببرد» یا «خزیدن» کند تا ثابت کند که واقعاً معلول است. این درخواستهای غیرمنطقی و بیرحمانه او را عمیقاً آزرده خاطر کرد. داستان «اکتیو نگا» گواهی دلخراش بر این است که سوءاستفاده از فناوری چقدر میتواند مضر باشد.
مهارتهای تشخیص محتوای جعلی تولید شده توسط هوش مصنوعی
طبق اعلام وزارت امنیت عمومی، در سال ۲۰۲۴، ویتنام بیش از ۶۰۰۰ پرونده کلاهبرداری آنلاین ثبت کرده است که تخمین زده میشود حدود ۱۲۰۰۰ میلیارد دونگ ویتنام ضرر مالی به بار آورده است. تنها در ۸ ماه سال ۲۰۲۵، نزدیک به ۱۵۰۰ پرونده کلاهبرداری آنلاین نیز کشف شده است. این تعداد به وضوح نشان دهنده سطح خطرناک جرایم پیشرفته در شرایطی است که کشور ما بیش از ۷۸ میلیون کاربر اینترنت و ۷۲ میلیون کاربر شبکه اجتماعی دارد. فضای مجازی در حال تبدیل شدن به بستری مناسب برای ترفندهای کلاهبرداری پیچیدهتر است که در آن استفاده از هوش مصنوعی برای ایجاد محتوای جعلی بزرگترین تهدید امروز است.
در مواجهه با این واقعیت نگرانکننده، مقامات و کارشناسان امنیت سایبری توصیه میکنند که مردم باید خود را به دانش و مهارتهای لازم برای شناسایی محتوای جعلی مجهز کنند. نگوین نات ها، معاون دبیر اتحادیه جوانان پلیس بخش لانگ بین (هانوی)، خاطرنشان کرد که مردم باید مرتباً منابع اطلاعات رسمی را رصد کنند، دانش خود را در مورد فناوری و اشکال جدید کلاهبرداری به روز کنند. به طور خاص، آنها باید همیشه هوشیار باشند و اصول اساسی را به خاطر داشته باشند که عبارتند از: تأیید دقیق منابع اطلاعات، عدم ارائه اطلاعات شخصی به منابع تأیید نشده، عدم دسترسی به لینکهای عجیب و غریب و عدم انتقال پول به حسابهای تأیید نشده.
به گفته کارشناسان امنیت سایبری، برای شناسایی ویدیوهای تولید شده توسط هوش مصنوعی، کاربران باید جزئیات تصویر، حرکات صورت، اندامها یا صداها را با دقت مشاهده کنند. نشانههایی مانند چشمان بیفروغ، حرکات غیرطبیعی، تأخیر در گفتار یا حرکات لب ناهماهنگ اغلب نشانههایی از فناوری دیپفیک هستند.
علاوه بر این، بررسی اطلاعات ارسال شده توسط کانال، خواندن نظرات و مشاهده تاریخچه فعالیت نیز راههای سادهای برای ارزیابی قابلیت اطمینان هستند. در کنار آن، کاربران باید عادت کنند که قبل از باور کردن، آن را تأیید کنند. مهم نیست که یک ویدیو چقدر احساسی باشد، نباید عجولانه به اشتراک گذاشته یا پشتیبانی شود.
کارشناسان همچنین از پلتفرمهای رسانههای اجتماعی خواستند تا سانسور را تقویت کنند، محتوایی را که از هوش مصنوعی برای جعل هویت افراد دارای معلولیت استفاده میکند شناسایی کنند و با حسابهای متخلف به شدت برخورد کنند. مقامات همچنین باید به زودی مقررات روشنی در مورد استفاده از تصاویر و محتوای هوش مصنوعی وضع کنند و اطمینان حاصل کنند که این فناوری به ابزاری برای رفتار غیراخلاقی توسط بازیگران بد تبدیل نمیشود.
منبع: https://hanoimoi.vn/dung-ai-gia-nguoi-khuet-tat-de-truc-loi-canh-giac-chieu-lua-moi-722565.html






نظر (0)