Vietnam.vn - Nền tảng quảng bá Việt Nam

ڈیپ فیک ٹیکنالوجی کا استحصال کرنے والے گھوٹالوں کی شناخت کیسے کریں۔

VTC NewsVTC News21/10/2023


ڈیپ فیکس اب ایک بڑی تشویش ہے کیونکہ اس ٹیکنالوجی کا استعمال کرتے ہوئے گھوٹالوں کی تعداد میں مسلسل اضافہ ہو رہا ہے۔

ڈارک نیٹ فورمز پر تحقیق کرنے کے بعد، جہاں سائبر کرائمین اکثر کام کرتے ہیں، سیکورٹی ماہرین نے پایا کہ بہت سارے مجرم ڈیپ فیک سافٹ ویئر کو دھوکہ دہی کے لیے استعمال کر رہے ہیں جس کی مانگ اس وقت مارکیٹ میں دستیاب ڈیپ فیک سافٹ ویئر کی سپلائی سے کہیں زیادہ ہے۔

جیسا کہ طلب رسد سے زیادہ ہوتی ہے، کاسپرسکی ماہرین ڈیپ فیک گھوٹالوں میں تیزی سے متنوع اور نفیس طریقوں کے ساتھ اضافے کی پیش گوئی کرتے ہیں: اعلیٰ معیار کی نقالی ویڈیوز فراہم کرنے سے لے کر سوشل میڈیا پر جعلی لائیو سٹریمز میں مشہور شخصیات کی تصاویر کے استعمال تک، متاثرین کی بھیجی گئی رقم کو دوگنا کرنے کا وعدہ کرتے ہوئے

ریگول انفارمیشن ریفرنس سسٹم کے مطابق، دنیا بھر میں 37% کاروباروں نے آواز پر مبنی ڈیپ فیک گھوٹالوں کا تجربہ کیا ہے، اور 29% ویڈیو پر مبنی ڈیپ فیک گھوٹالوں کا شکار ہوئے ہیں۔

یہ ٹیکنالوجی ویتنام کی سائبر سیکیورٹی کے لیے خطرہ بن گئی ہے، جہاں سائبر جرائم پیشہ افراد اکثر اپنے رشتہ داروں اور دوستوں سے رقم ادھار لینے کے لیے جعلی ویڈیو کالز کا استعمال کرتے ہیں۔

ڈیپ فیک ویڈیو کال ایک منٹ تک چل سکتی ہے، جس سے متاثرین کے لیے اصلی اور جعلی کال میں فرق کرنا بہت مشکل ہو جاتا ہے۔

جدید ترین آن لائن گھوٹالوں میں ڈیپ فیکس آہستہ آہستہ ایک

جدید ترین آن لائن گھوٹالوں میں ڈیپ فیکس آہستہ آہستہ ایک "ڈراؤنا خواب" بن رہے ہیں۔

" ڈیپ فیکس خواتین اور معاشرے کے لیے ایک ڈراؤنا خواب بن چکے ہیں۔ سائبر جرائم پیشہ افراد کے چہروں کو فحش تصاویر اور ویڈیوز کے ساتھ ساتھ پروپیگنڈہ مہموں میں چھپانے کے لیے مصنوعی ذہانت (AI) کا استعمال کر رہے ہیں۔"

کاسپرسکی ویتنام کی ریجنل ڈائریکٹر محترمہ وو ڈوونگ ٹو ڈیم نے اشتراک کیا، "ان قسم کے ہیرا پھیری کا مقصد غلط معلومات پھیلا کر رائے عامہ کو کنٹرول کرنا ہے، یہاں تک کہ اداروں یا افراد کی ساکھ کو نقصان پہنچانا ہے۔ "

اگرچہ مجرموں کی طرف سے مذموم مقاصد کے لیے AI کا غلط استعمال کیا جا رہا ہے، تاہم افراد اور کاروبار اب بھی مصنوعی ذہانت کا استعمال ڈیپ فیکس کی شناخت کے لیے کر سکتے ہیں، جس سے کامیاب گھوٹالوں کے امکانات کم ہو جاتے ہیں۔

اس کے مطابق، صارفین کے پاس اپنے آپ کو گھوٹالوں سے بچانے کے لیے کئی مفید حل ہوں گے، جیسے کہ AI سے تیار کردہ مواد کا پتہ لگانے والے سافٹ ویئر کا استعمال کرنا (جو تصویروں/ویڈیوز/آڈیو میں ترمیم کرنے کی حد تک تجزیہ اور اس کا تعین کرنے کے لیے جدید الگورتھم استعمال کرتا ہے)۔

ڈیپ فیک ویڈیوز کے لیے، اب ایسے ٹولز موجود ہیں جو منہ اور گویائی کے درمیان غیر مماثل حرکات کی نشاندہی کرنے میں مدد کرتے ہیں۔ کچھ پروگرامز ویڈیو ریزولوشن کا تجزیہ کرکے جلد کے نیچے خون کے غیر معمولی بہاؤ کا پتہ لگانے کے لیے کافی "طاقتور" بھی ہوتے ہیں، کیونکہ جب دل خون پمپ کرتا ہے تو انسان کے جسم کی رگوں کا رنگ بدل جاتا ہے۔

اس کے علاوہ، واٹر مارکس تصاویر، ویڈیوز وغیرہ میں شناختی نشانات کے طور پر کام کرتے ہیں، جو مصنفین کو ان کی AI مصنوعات کے کاپی رائٹ کے تحفظ میں مدد فراہم کرتے ہیں۔ یہ فیچر ڈیپ فیکس کے خلاف ایک ہتھیار بن سکتا ہے کیونکہ یہ مصنوعی ذہانت کو تخلیق کرنے والے پلیٹ فارم کی اصلیت کا پتہ لگانے میں مدد کرتا ہے۔ ٹیک سیوی صارفین مواد کے ماخذ کا پتہ لگانے کے طریقے تلاش کر سکتے ہیں تاکہ اس بات کا موازنہ کیا جا سکے کہ AI کے ذریعے اصل ڈیٹا میں کس طرح ترمیم کی گئی ہے۔

فی الحال، کچھ ابھرتی ہوئی ٹیکنالوجیز ویڈیو کے اندر مقررہ وقت کے وقفوں پر ہیش ویلیوز داخل کرنے کے لیے انکرپشن الگورتھم کا استعمال کرتی ہیں۔ اگر ویڈیو میں ترمیم کی گئی ہے، تو ہیش ویلیو بدل جائے گی، جس سے صارفین اس بات کی تصدیق کر سکیں گے کہ آیا مواد کے ساتھ چھیڑ چھاڑ کی گئی ہے۔

اس سے پہلے، ویڈیوز میں بے ضابطگیوں کو تلاش کرنے کے بارے میں کچھ رہنما اصول تھے، جیسے کہ رنگ کا بگاڑ، پٹھوں کی غیر فطری حرکت، آنکھوں کی حرکت وغیرہ، تاہم، جیسے جیسے AI تیزی سے ذہین ہوتا جاتا ہے، یہ اقدار ہمیشہ درست نتائج نہیں دیتیں۔

ویڈیوز کی ساکھ کی تصدیق کا عمل اب بصری معائنہ پر انحصار نہیں کرتا بلکہ اس کے لیے تکنیکی ٹولز کی ضرورت ہوتی ہے جو جعلی مواد کو روکنے اور اس کا پتہ لگانے کے لیے بنائے گئے ہوں۔

کھنہ لن



ماخذ

تبصرہ (0)

برائے مہربانی اپنی جذبات کا اظہار کرنے کے لیے تبصرہ کریں!

اسی موضوع میں

اسی زمرے میں

اسی مصنف کی

ورثہ

پیکر

کاروبار

کرنٹ افیئرز

سیاسی نظام

مقامی

پروڈکٹ