
تصاویر و ویدیوهای بیشتری که توسط هوش مصنوعی ویرایش و اضافه میشوند، برای جذب بازدید در شبکههای اجتماعی منتشر میشوند - عکس: DUC THIEN
اگر در گذشته، برای ایجاد یک عکس جعلی، کاربران عادی مجبور بودند متخصصان فتوشاپ را استخدام کنند، با هوش مصنوعی امروزه، در کمتر از ۵ دقیقه و با برخی مهارتهای اولیه، میتوان مجموعهای از عکسهای جعلی را در همه جا ظاهر کرد.
وقتی هوش مصنوعی تصاویر، ویدیوها، آهنگها را آنقدر واقعی میسازد که باور کردنش سخت است
خانم هوآن مای (HCMC) - کارمند ارتباطات - که هر روز مرتباً در فیسبوک گشت و گذار میکند، گفت که محتوای بیشتری با مداخله ابزارهای هوش مصنوعی توسط کاربران ارسال میشود.
خانم مای به اشتراک گذاشت: «عکسهای زیادی توسط دوستان یا اعضای گروهها منتشر شده که آنقدر واقعی هستند که اگر خودشان نمیگفتند، نمیتوانستم تشخیص دهم که آیا از هوش مصنوعی استفاده شده است یا نه. حتی ویدیوهای بیشتر و بیشتری، از انیمیشنها، تخیلات گرفته تا فیلمهای کوتاه یا ویدیوهایی مربوط به رویدادی که در زندگی واقعی اتفاق میافتد، توسط ابزارهای هوش مصنوعی ساخته میشوند، اما من نمیتوانم از صحت آنها مطمئن شوم.»
نه تنها تصاویر و ویدیوها، حتی در شبکه اجتماعی یوتیوب، آهنگهای زیادی توسط "خوانندگان هوش مصنوعی" اجرا یا ساخته شدهاند. بسیاری از کاربران از این تجربه جدید هیجانزده هستند و برای به اشتراک گذاشتن آن در شبکههای اجتماعی با دوستانشان رقابت میکنند.
خان ها (HCMC) گفت: «اگر اعلام نشود، نمیتوانم تشخیص دهم که آیا خواننده هوش مصنوعی است یا خیر. محتوای هوش مصنوعی به طور فزایندهای در فضای مجازی ویتنام گسترده شده است. کاربران عادی مثل من احتمالاً به زودی دیگر نمیدانند کدام محتوا از افراد واقعی است، کدام محتوا از هوش مصنوعی است یا مداخله هوش مصنوعی در آن دخیل بوده است.»
اخیراً، بسیاری از پلتفرمهای شبکههای اجتماعی در ویتنام، ویدیوها و پخشهای زندهای را به نمایش گذاشتهاند که محصولات افراد دارای معلولیت را میفروشند و باعث شدهاند جامعه آنلاین، همدلی و مشارکت بیشتری داشته باشد.
با این حال، بسیاری از موارد بعداً توسط جامعه آنلاین افشا شد که از هوش مصنوعی برای تبدیل افراد عادی به افراد معلول استفاده میکردند. هدف از این ترفند، سوءاستفاده از دلسوزی بینندگان برای فروش کالا یا انجام اقدامات کلاهبرداری است.
بسیاری از کارشناسان فناوری میگویند که اخیراً، شبکههای اجتماعی شاهد افزایش تعداد حسابهایی بودهاند که ویدیوهای فروش با تصاویر افراد معلول، بیمار یا محروم را برای جلب همدردی منتشر میکنند. با این حال، واقعیت نشان میدهد که بسیاری از این محتوا با ابزارهای هوش مصنوعی ایجاد یا ویرایش میشود و افراد عادی را برای اهداف سودجویانه یا کلاهبرداری به افراد معلول تبدیل میکند.
آقای میلکو رادویچ، معاون رئیس منطقه آسیا و اقیانوسیه iProov - ارائه دهنده پیشرو فناوری احراز هویت بیومتریک در جهان - در گفتگو با توئی تره هشدار داد: «تحقیقات ما نشان میدهد که ۹۹.۹٪ از شرکتکنندگان نمیتوانند دیپفیک را تشخیص دهند. حتی ابزارهای پیشرفته تشخیص امروزی نیز با مشکلات زیادی روبرو هستند.»
افزایش مقاومت برای کاربران دیجیتال
آقای دانگ هو سان - معاون مدیر موسسه تحقیقات کاربردی و توسعه منابع انسانی AIOV، بنیانگذار و مدیرعامل شرکت هوش مصنوعی LovinBot - گفت از زمانی که گوگل فناوری هوش مصنوعی Nano Banana، Veo 3، ByteDance Seedream 4 و قبل از آن OpenAI GPT Image را عرضه کرد، بازار هوش مصنوعی بسیار پررونق بوده و پیامدهای بسیاری نیز به همراه داشته است.
آقای سان اظهار داشت: «فناوری هرگز به اندازه امروز در دسترس نبوده است. همه اینها مدلهای هوش مصنوعی بسیار قدرتمندی هستند که میتوانند چهرهها را تقریباً ۹۰٪، حتی ۹۹٪ در مقایسه با عکس اصلی «کپی» کنند.»
اگر در گذشته، برای ایجاد یک عکس جعلی، کاربران عادی مجبور بودند متخصصان فتوشاپ را برای این کار استخدام کنند، امروزه با هوش مصنوعی، در کمتر از ۵ دقیقه با برخی مهارتهای اولیه، مجموعهای از عکسهای جعلی، یک ویدیوی جعلی که برش داده شده و به آن جلوههای خبری اضافه شده است، میتواند با سرعتی سرگیجهآور پخش شود.
آقای سون خاطرنشان کرد: «اخبار جعلی بارها و بارها، با تراکم بالا و دسترسی آسان تکرار میشوند، بنابراین تعداد زیادی از افرادی که هر روز با آنها در تماس هستند، باور میکنند که این اخبار درست هستند. بنابراین، برای محدود کردن مشکلات فوق، به راهکارهایی نیاز است.»
به گفته آقای ترین نگوین تین فوک - مدیر فناوری شرکت جاینتی ویتنام، برای تشخیص محتوای تولید شده توسط هوش مصنوعی، به سه لایه نیاز است: (1) مهارتهای تأیید کاربر (همراه با قوانین طلایی)؛ (2) ابزارهای فنی مانند اعتبارنامههای محتوا (C2PA)، علائم شناسایی واترمارک (SynthID، AudioSeal) و آشکارساز دیپفیک؛ (3) فرآیند هماهنگی بین طرفهای مرتبط مانند: پلتفرمها، اپراتورهای شبکه، بانکها...
به طور خاص، قانون طلایی باید خیلی سریع و ظرف ۳۰ تا ۶۰ ثانیه اجرا شود، از جمله: روی لینکهای عجیب کلیک نکنید و برای تأیید به برنامه/وبسایت رسمی بروید؛ هنگام مواجهه با کلمات کلیدی که شما را مجبور به اقدام میکنند (OTP/انتقال پول/فوری) فوراً متوقف شوید.
در عین حال، کاربران باید قبل از باور کردن، با دو منبع مستقل تأیید کنند؛ تاریخ، زمان و زمینه (اخبار قدیمی که به شکل جدید درآمده) را بررسی کنند؛ با شماره رسمی که خودتان پیدا کردهاید تماس بگیرید، از شمارهای که دیگران دادهاند استفاده نکنید؛ با تصاویر و ویدیوها، کاربران میتوانند برای نتایج مرتبط جستجو کنند...
بسیاری از کارشناسان معتقدند که اساسیترین راه حل برای مقابله با موج محتوای جعلی ایجاد شده توسط هوش مصنوعی، افزایش آگاهی عمومی است. به جای تمرکز صرف بر اقدامات فنی، لازم است برنامههای آموزشی، مسابقات یا شبیهسازی موقعیتهای واقعی ساخته شود تا به افراد در تغییر عادات دریافت اطلاعاتشان کمک کند.
برای جوانان، به ویژه دانشجویان، ترکیب مسابقات آنلاین، کمپینهای رسانهای با افراد مشهور یا KOLها میتواند جذابیت طبیعی ایجاد کند و به آنها کمک کند تا در عین تسلط بر مهارتهای شناسایی اخبار جعلی و ویدیوهای جعلی، یاد بگیرند و تجربه کسب کنند. در همین حال، سالمندان، به ویژه در مناطق روستایی، به اشکال آشناتر و شهودیتری مانند بروشورهای مصور، ویدیوهای آموزشی یا نمایش در خانههای فرهنگی و فعالیتهای اجتماعی نیاز دارند.
آقای دانگ هو سان گفت: «رویکردی که برای هر گروه از افراد مناسب باشد، به ایجاد یک پایه آگاهیبخشی محکم و بلندمدت کمک میکند، نه اینکه صرفاً به فعالیتهای کوتاهمدت بسنده کند. به عنوان مثال، برخی واحدها افزونههایی را توسعه دادهاند که میتوانند روی مرورگر کروم نصب شوند تا به کاربران در تأیید اخبار هنگام گشت و گذار در وب یا شبکههای اجتماعی کمک کنند...».
استفاده از هوش مصنوعی برای تشخیص هوش مصنوعی جعلی
اخیراً، شرکت تلفن همراه آنر (Honor) ویژگی تشخیص دیپفیک (Deepfake Detection) مبتنی بر هوش مصنوعی را در خط تلفن جدید خود ادغام کرده است. این ویژگی میتواند تصاویر و صداها را در عرض ۳ ثانیه تجزیه و تحلیل کند تا در مورد محتوای جعلی در برنامههایی مانند مسنجر، زالو (Zalo)، وایبر (Viber) یا گوگل میت (Google Meet) هشدار دهد و به این ترتیب به یک «سپر دیجیتال» برای محافظت از کاربران در برابر کلاهبرداریهای پیشرفته تبدیل شود.
پیش از این، در سپتامبر ۲۰۲۵، مومو همکاری خود را با iProov برای استقرار فناوری Dynamic Liveness اعلام کرده بود تا به تأیید صحت کاربران، داشتن هویت صحیح و حضور آنها در زمان تراکنش کمک کند و از کلاهبرداری با استفاده از دیپ فیک، ویدیوها یا تصاویر جعلی جلوگیری کند.
در بخشهای پرخطر مانند امور مالی، این سطح از امنیت برای جلوگیری از کلاهبرداری، جلوگیری از دسترسی غیرمجاز و حفظ اعتماد کاربر به پلتفرم بسیار مهم است.
منبع: https://tuoitre.vn/tu-hinh-anh-video-den-ca-khuc-ai-can-trong-con-loc-noi-dung-ai-tren-mang-xa-hoi-20251109232702736.htm






نظر (0)