اس ہفتے جاری کردہ ایک انتباہ میں، ایف بی آئی نے کہا کہ اس نے حال ہی میں بلیک میل کرنے والے متاثرین میں اضافہ دیکھا ہے جو کہتے ہیں کہ انہیں AI کا استعمال کرتے ہوئے نشانہ بنایا گیا ہے بصورت دیگر عام تصاویر، آن لائن پوسٹس، ذاتی پیغامات یا ویڈیو چیٹس سے لی گئی جعلی ورژن میں ترمیم کرنے کے لیے۔
ہسپانوی پولیس نے ایک بار ایک پروگرامر کو گرفتار کیا جس نے جعلی چائلڈ پورنوگرافی امیجز بنانے کے لیے AI کا استعمال کیا۔ تصویر: ڈیلی میل
انتباہ میں کہا گیا ہے کہ "تصاویر پھر متاثرین کو بلیک میل کرنے یا جنسی طور پر ہراساں کرنے کے لیے مجرموں کی طرف سے براہ راست بھیجی جاتی ہیں۔ ایک بار تقسیم ہونے کے بعد، متاثرین کو ہیرا پھیری والے مواد کی مسلسل شیئرنگ کو روکنے کے ساتھ ساتھ اسے انٹرنیٹ سے ہٹانے میں اہم چیلنجز کا سامنا کرنا پڑ سکتا ہے،" وارننگ میں کہا گیا۔
بیورو نے کہا کہ یہ تصاویر "زندگی کے لیے سچی" دکھائی دیتی ہیں، جبکہ یہ بھی نوٹ کیا گیا کہ کچھ معاملات میں بچوں کو بھی نشانہ بنایا گیا تھا۔
فروری میں، سپین میں پولیس نے ایک کمپیوٹر پروگرامر کو گرفتار کیا جس نے بچوں کے ساتھ بدسلوکی کی خوفناک تصاویر بنانے کے لیے AI کا استعمال کیا جس کے بارے میں خیال کیا جاتا ہے کہ یہ اپنی نوعیت کی پہلی گرفتاریوں میں سے ایک ہے۔
ایف بی آئی نے جنسی تصاویر بنانے کے لیے استعمال کیے جانے والے AI پروگراموں کے بارے میں تفصیل میں نہیں جانا، لیکن نوٹ کیا کہ تکنیکی ترقی "AI سے چلنے والے مواد کی تخلیق کے معیار، تخصیص اور رسائی کو مسلسل بہتر بنا رہی ہے۔"
شہوانی، شہوت انگیز تصاویر بنانے کے لیے باقاعدہ تصاویر میں ترمیم کرنا تقریباً اتنا ہی پرانا ہے جتنا کہ خود فوٹو گرافی، لیکن اوپن سورس AI ٹولز کے حالیہ دھماکے نے اس عمل کو پہلے سے کہیں زیادہ آسان بنا دیا ہے۔
جعلی تصاویر یا ویڈیوز اکثر حقیقی زندگی کے ورژن سے الگ نہیں ہوتے ہیں، اور AI سے چلنے والی جنسی تصاویر بنانے اور ان کے تبادلے کے لیے وقف کئی ویب سائٹس اور سوشل نیٹ ورکس بھی حالیہ برسوں میں سامنے آئے ہیں۔
یہ ان خطرات کے سلسلے میں سے ایک سمجھا جاتا ہے جو مصنوعی ذہانت سے معاشرے کو لاحق ہو سکتے ہیں، جیسا کہ ماہرین نے حال ہی میں فکر مند اور خبردار کیا ہے۔
ہوانگ انہ (ڈیلی میل، رائٹرز کے مطابق)
ماخذ
تبصرہ (0)