افراد شرور میتوانند از هوش مصنوعی برای ترکیب عکسها و ویدیوهای حساس برای بدنام کردن و اخاذی از دیگران استفاده کنند - عکس: نقاشی هوش مصنوعی
در گذشته، وقتی صحبت از تکنیک برش و چسباندن چهره یک نفر روی بدن شخص دیگر میشد، مردم اغلب از فتوشاپ یا نرمافزارهای تخصصی ویرایش عکس استفاده میکردند - که کاری پرزحمت و به راحتی با چشم غیرمسلح قابل تشخیص است.
اکنون با ابزارهای هوش مصنوعی، افراد میتوانند این کار را به راحتی و در «چند یادداشت» انجام دهند، اما تشخیص آن با چشم غیرمسلح آسان نیست.
ویدیوی سکس با تغییر چهره برای اخاذی
به دلیل ارتباطات کاری، آقای ه. (مدیر یک کسب و کار در شهر هوشی مین) اغلب در شبکههای اجتماعی تعامل دارد.
یک بار، دختر جوانی با او دوست شد که از کارش پرسید. بعد از مدتی که از هم پرسیدند، گپ زدند، درباره کار و زندگی شخصیشان صحبت کردند، به نظر میرسید که این دو کاملاً به هم نزدیک هستند.
همچنین پیامهای متنی زیادی با کلمات بسیار محبتآمیز بین این دو رد و بدل میشد، به همراه عکسهایی که رد و بدل میشد و تماسهای ویدیویی برای دیدن یکدیگر.
روزی، آقای ه. ناگهان تماسی از مردی دریافت کرد که ادعا میکرد شوهر آن دختر است. پس از یک اقدام "پیشگیرانه" علیه آقای ه.، "شوهر" از او خواست که پول غرامت را واریز کند، در غیر این صورت عکسهای چتها و فیلمهای جنسیشان را برای اقوام و شرکای تجاریاش ارسال خواهد کرد.
سپس "شوهر" آقای ح. ویدیوی رابطه جنسی او و دختر دیگر را به همراه تماس ویدیویی بین این دو به او نشان داد و پیامهای متنی خصوصی او را ضبط کرد...
آقای ه. تأیید کرد: «من هرگز آن دختر را ندیدهام، بنابراین مطمئنم که ویدیوی سکس یک تصویر فتوشاپی است.» با این حال، تصویر صورت دختر در ویدیوی سکس و دختر در تماس ویدیویی او یکی است، به همراه عکسی از پیامک محبتآمیز، که آقای ه. را مجبور میکند بارها برای حفظ آبرویش به «شوهرش» پول منتقل کند.
طی تحقیقات توئی تری ، آقای اچ. به صورت سازمانیافته و طبق یک سناریوی بینقص مورد کلاهبرداری قرار گرفت. در این کلاهبرداری، آقای اچ. دو بار توسط دیپفیک فریب خورد. بار اول یک تماس ویدیویی و بار دوم یک ویدیوی جنسی.
نکته قابل توجه این است که در ویدیوی جنسی، صورت آقای H. آنقدر ماهرانه پیوند زده شده بود که بینندگان به سختی باور میکردند که این یک ویدیوی پیوند چهره است. یک متخصص هوش مصنوعی به توئی تره تأیید کرد که افراد شرور از یک ابزار جدید هوش مصنوعی استفاده کردهاند که میتواند چهرهها را کاملاً... مانند چهرههای واقعی، به ویدیوها پیوند بزند.
ابزارهای هوش مصنوعی برای تغییر چهره فراوانند
در حال حاضر ابزارهای کاربردی هوش مصنوعی زیادی وجود دارند که دارای ویژگیهایی مانند ایجاد هر شخصی با چهره دلخواه و ادغام چهره دلخواه روی بدن شخص دیگر هستند.
در میان آنها، ابزارهایی با ویژگیهایی وجود دارند که اهداف بدی را دنبال میکنند، مانند تبدیل عکسهای معمولی به عکسهای برهنه با "حذف" چهره فرد در عکس، یا جایگزینی چهره یک فرد در ویدیوها با چهره دلخواه...
بیشتر این ابزارهای هوش مصنوعی برای آزمایش در دسترس هستند، اما پرداخت هزینه برای آنها، ویژگیهای کامل را با زمان تبدیل بسیار سریع در اختیار شما قرار میدهد.
برای مثال، با قابلیت «چهره به بدن»، کاربران فقط باید دو عکس متناظر را آپلود کنند و چند ثانیه برای نتایج منتظر بمانند.
یا با قابلیت ایجاد عکسهای برهنه از عکسهای معمولی، ابزار هوش مصنوعی میتواند این کار را خیلی سریع و تنها در چند ده ثانیه انجام دهد و بینندگان را مبهوت کند.
حتی در مورد قابلیت تعویض چهره در ویدیوهای جنسی، ابزار هوش مصنوعی این کار را خیلی سریع انجام میدهد و برای ویدیوهایی که چند ثانیه طول میکشند، کمتر از یک دقیقه طول میکشد.
آقای نگوین کیم تو، رئیس تیم تحقیق و توسعه شرکت امنیت سایبری VNetwork، در گفتگو با توئی تره ، اصطلاح دیپفیک (جعل عمیق) را تحلیل کرد. دیپفیک به ویدیوها و تصاویر جعلی اشاره دارد که با استفاده از هوش مصنوعی ساخته میشوند تا بینندگان فکر کنند واقعی هستند.
فناوری دیپفیک (Deepfake) از مدلهای یادگیری عمیق مانند شبکههای عصبی برای تجزیه و تحلیل دادههای چهره و صدای یک فرد و ایجاد محتوای جعلی که دقیقاً شبیه آن شخص است، استفاده میکند.
به لطف الگوریتمهای قدرتمند، افراد شرور میتوانند چهره قربانی را در ویدیوهای حساس (مثلاً ویدیوهای «تختخواب»، پورن) قرار دهند یا تصاویر را ویرایش کنند تا عکسهای برهنه جعلی ایجاد کنند.
آقای تو گفت: «نرمافزار و برنامههای دیپفیک اکنون در اینترنت بسیار محبوب هستند، حتی با برنامههای تلفن همراه، کد منبع باز یا خدمات آنلاین رایگان - که دسترسی به ابزارهایی برای ایجاد ویدیوها و عکسهای جعلی را برای هر کسی آسان میکند، بنابراین مردم باید هوشیار باشند.»
از «سکس چت» دوری کنید
بسیاری از کلاهبرداریها با پیدا کردن دوست آنلاین و سپس فریب قربانی برای "سکس چت" یا ارسال عکسهای حساس شروع میشوند. بنابراین، کاربران هرگز نباید عکسها یا ویدیوهای خصوصی را برای افرادی که فقط به صورت آنلاین ملاقات میکنند، ارسال کنند، صرف نظر از اینکه چه وعدهها یا تهدیدهایی میدهند.
همیشه به یاد داشته باشید که هر محتوایی که به اشتراک گذاشته میشود (حتی از طریق پیامهای خصوصی) میتواند ضبط شود (عکس از صفحه، ویدیو) و سپس ویرایش و علیه شما استفاده شود.
اگر تماس ویدیویی دارید، مراقب غریبههایی باشید که محتوای حساسی را درخواست میکنند - ممکن است صفحه نمایش جعلی باشد یا در حال ضبط باشند.
کارشناسان امنیت سایبری به کاربران توصیه میکنند که هرگز صرفاً از طریق ارتباط آنلاین به کسی اعتماد نکنند و قبل از به اشتراک گذاشتن هرگونه اطلاعات حساس، هویت و نیت طرف مقابل را تأیید کنند.
علاوه بر این، اگر پیامک یا تماسی دریافت کردید که تهدید به انتشار عکسهای «داغ» برای باجگیری میکرد، کاربران نیازی به ترس یا عجله برای انتقال پول ندارند.
کارشناسان میگویند پرداخت پول تضمین نمیکند که مجرمان ویدیو را حذف کنند؛ آنها ممکن است به هر حال به درخواستهای بیشتر یا انتشار آنلاین محتوا ادامه دهند.
به جای پیروی از درخواستهای مجرمان، کاربران باید مدارک (پیامها، شماره تلفنها، حسابهای کاربری، محتوای تهدیدآمیز و...) را جمعآوری کرده و فوراً به نزدیکترین آژانس پلیس گزارش دهند یا حادثه را از طریق برنامه VNeID وزارت امنیت عمومی برای پشتیبانی به موقع گزارش دهند.
چگونه شناسایی کنیم؟
به گفته آقای نگوین کیم تو، تشخیص بین تصاویر و ویدیوهای واقعی و دیپ فیک به طور فزایندهای دشوار میشود، اما هنوز برخی علائم شناسایی و ابزارهای پشتیبانی وجود دارد.
کاربران میتوانند به صورت دستی مشاهده کنند، زیرا محتوای دیپفیک گاهی اوقات ناهنجاریهایی در تصویر و صدا دارد.
برای مثال، یک تصویر ترکیبی ممکن است نویز یا تفاوت رنگ بین چهره ترکیبی و بدن را نشان دهد. یک ویدیوی جعلی ممکن است دارای عدم تطابق صدا و تصویر (حرکات لب که با گفتار مطابقت ندارند) یا حالات چهره باشد که خشک و غیرطبیعی به نظر میرسند.
پیش از این، برخی از ویدیوهای دیپفیک باعث میشدند شخصیتها پلک نزنند، یا نورپردازی و سایههای روی صورت با متن مطابقت نداشت - که نشانههایی از ویرایش ویدیو بودند.
اگرچه این فناوری در حال پیشرفت است (برای مثال، دیپفیکهای جدید حرکات پلک زدن واقعگرایانهای را اضافه کردهاند)، بینندگان تیزبین هنوز هم میتوانند برخی جزئیات غیرمنطقی را در ویدیوها و عکسها تشخیص دهند.
محققان اکنون در حال توسعه الگوریتمهای زیادی برای تشخیص خودکار ردپاهای دیپفیک هستند.
محتوای تولید شده توسط هوش مصنوعی اغلب یک «اثر انگشت دیجیتال» متمایز در هر پیکسل به جا میگذارد که ماشینها میتوانند آن را تشخیص دهند.
برای مثال، اینتل اولین آشکارساز دیپفیک بلادرنگ را معرفی کرده است که قادر به تجزیه و تحلیل ویدیوها و تعیین اینکه آیا شخصیتهای موجود در آنها افراد واقعی هستند یا توسط هوش مصنوعی تولید شدهاند، میباشد.
علاوه بر این، برخی وبسایتها به کاربران اجازه میدهند ویدیوها و عکسها را برای بررسی صحت تصاویر آپلود کنند (برای مثال، Deepware، ابزارهای هوش مصنوعی Sensity...). این سیستمها دائماً بهروزرسانی میشوند تا با تکنیکهای جدید جعل عمیق همگام باشند.
به طور خاص، کاربران میتوانند هنگام مواجهه با یک ویدیو یا تصویر حساس، منبع پست و زمینه آن را بررسی کنند، زیرا بسیاری از ویدیوهای دیپفیک از طریق حسابهای جعلی یا رباتها در شبکههای اجتماعی پخش میشوند.
«اگر محتوای حساس درباره یک شخص از یک منبع غیررسمی یا حساب کاربری ناشناس منتشر میشود، در مورد صحت آن شک کنید. میتوانید مستقیماً با شخص ذکر شده در محتوا تماس بگیرید تا مطمئن شوید که واقعاً این کار را انجام داده است.»
آقای تو گفت: «علاوه بر این، پروژههایی مانند [پروژه]، تعبیه اطلاعات احراز هویت (امضاهای دیجیتال) در عکسها و ویدیوها را درست از لحظه ایجاد، ترویج میدهند و به تشخیص محتوای اصلی از محتوای ویرایششده کمک میکنند. در آینده، کاربران میتوانند از این نشانههای احراز هویت برای شناسایی محتوای قابل اعتماد استفاده کنند.»
۵ نکته برای محافظت از خودتان
۱. اشتراکگذاری عکسها و ویدیوهای حساس و خصوصی (بهویژه عکسهای برهنه، عکسهای خانوادگی، عکسهای کودکان) را محدود کنید.
۲. حسابهای کاربری شبکههای اجتماعی خود را روی حالت خصوصی (private) قرار دهید (فقط با افراد مورد اعتماد به اشتراک بگذارید).
۳. اطلاعات شخصی بیش از حد (نام کامل، شماره تلفن، آدرس...) را در شبکههای اجتماعی عمومی ارائه ندهید.
۴. برای جلوگیری از هک شدن، رمزهای عبور قوی تنظیم کنید و تأیید دو مرحلهای را برای حسابهای خود فعال کنید.
۵. مرتباً نام و تصویر خود را در گوگل جستجو کنید (یا از ابزارهای جستجوی معکوس تصویر مانند Google Image، TinEye استفاده کنید) تا ببینید آیا عکسهای شما بدون اجازه منتشر شدهاند یا خیر، و فوراً درخواست حذف آنها را بدهید.
منبع: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
نظر (0)