Vietnam.vn - Nền tảng quảng bá Việt Nam

ڈیپ فیک کا استحصال کرنے والے گھوٹالوں کی شناخت کیسے کریں۔

VTC NewsVTC News22/10/2023


ڈیپ فیک اب ایک بڑی تشویش ہے کیونکہ ٹیکنالوجی پر مبنی گھوٹالوں کی تعداد میں مسلسل اضافہ ہوتا جا رہا ہے۔

ڈارک نیٹ فورمز پر تحقیق کرنے کے بعد، جہاں سائبر کرائمین اکثر کام کرتے ہیں، سیکورٹی ماہرین نے پایا کہ ڈیپ فیک کو فراڈ کے لیے استعمال کرنے والے اتنے زیادہ مجرم تھے کہ ڈیپ فیک سافٹ ویئر کی ڈیمانڈ اس وقت مارکیٹ میں موجود سپلائی سے کہیں زیادہ ہے۔

جیسا کہ ڈیمانڈ سپلائی سے بڑھ جاتی ہے، کاسپرسکی ماہرین پیشین گوئی کرتے ہیں کہ ڈیپ فیک گھوٹالے مزید متنوع اور نفیس شکلوں کے ساتھ بڑھیں گے: اعلیٰ معیار کی نقالی ویڈیو پیش کرنے سے لے کر جعلی سوشل میڈیا لائیو اسٹریمز میں مشہور شخصیات کی تصاویر کے استعمال تک، متاثرہ کی جانب سے بھیجی گئی رقم سے دگنی رقم ادا کرنے کا وعدہ کرنا۔

ریگول انفارمیشن ریفرنس سسٹم کے مطابق، دنیا بھر میں 37% کاروبار ڈیپ فیک وائس فراڈ کا سامنا کر چکے ہیں اور 29% ڈیپ فیک ویڈیوز کا شکار ہوئے ہیں۔

یہ ٹیکنالوجی ویتنام میں سائبرسیکیوریٹی کے لیے خطرہ بن گئی ہے، جہاں سائبر جرائم پیشہ افراد اکثر اپنے رشتہ داروں اور دوستوں سے رقم ادھار لینے کے لیے جعلی ویڈیو کالز کا استعمال کرتے ہیں۔

ڈیپ فیک ویڈیو کال صرف ایک منٹ تک چل سکتی ہے، جس سے متاثرین کے لیے اصلی اور نقلی میں فرق کرنا مشکل ہو جاتا ہے۔

ڈیپ فیک جدید ترین آن لائن گھوٹالوں میں آہستہ آہستہ ایک

ڈیپ فیک جدید ترین آن لائن گھوٹالوں میں آہستہ آہستہ ایک "ڈراؤنا خواب" بنتا جا رہا ہے۔

" ڈیپ فیک خواتین اور معاشرے کے لیے ایک ڈراؤنا خواب بن گیا ہے۔ سائبر کرائمین مصنوعی ذہانت (AI) کا استعمال کرتے ہوئے متاثرین کے چہروں کو فحش تصاویر اور ویڈیوز کے ساتھ ساتھ پروپیگنڈہ مہمات میں ڈال رہے ہیں۔

کاسپرسکی کی ویتنام کی علاقائی ڈائریکٹر محترمہ وو ڈوونگ ٹو ڈیم نے کہا کہ ان فارمز کا مقصد غلط معلومات پھیلا کر رائے عامہ کو توڑنا ہے، یہاں تک کہ اداروں یا افراد کی ساکھ کو نقصان پہنچانا ہے۔

اگرچہ AI کو مجرموں کی طرف سے بدسلوکی کے مقاصد کے لیے استعمال کیا جا رہا ہے، لیکن افراد اور کاروبار اب بھی مصنوعی ذہانت کو خود ڈیپ فیکس کی شناخت کے لیے استعمال کر سکتے ہیں، جس سے گھوٹالوں کی کامیابی کے امکانات کم ہو جاتے ہیں۔

اس کے مطابق، صارفین کے پاس اپنے آپ کو گھوٹالوں سے بچانے کے لیے کچھ مفید حل ہوں گے جیسے کہ AI سے تیار کردہ مواد کا پتہ لگانے والے سافٹ ویئر کا استعمال کرنا (تصاویر/ویڈیوز/آوازوں کی تدوین کی سطح کا تجزیہ اور تعین کرنے کے لیے جدید الگورتھم کا استعمال)۔

ڈیپ فیک ویڈیوز کے لیے، ایسے ٹولز دستیاب ہیں جو منہ کی غیر مماثل حرکات اور تقریر کا پتہ لگا سکتے ہیں۔ کچھ پروگرام ویڈیو ریزولوشن کا تجزیہ کرکے جلد کے نیچے خون کے غیر معمولی بہاؤ کا پتہ لگانے کے لیے کافی طاقتور ہوتے ہیں کیونکہ جب دل خون پمپ کرتا ہے تو انسانی رگوں کا رنگ بدل جاتا ہے۔

اس کے علاوہ، ایک واٹر مارک بھی ہے جو تصاویر، ویڈیوز وغیرہ میں ایک شناختی نشان کے طور پر کام کرتا ہے تاکہ مصنفین کو AI مصنوعات کے کاپی رائٹ کے تحفظ میں مدد ملے۔ یہ فیچر ڈیپ فیک کے خلاف ایک ہتھیار بن سکتا ہے کیونکہ یہ مصنوعی ذہانت پیدا کرنے والے پلیٹ فارم کی اصلیت کا پتہ لگانے میں مدد کرتا ہے۔ ٹیکنالوجی کے علم کی سطح کے حامل صارفین مواد کی اصلیت کا پتہ لگانے کا ایک طریقہ تلاش کر سکتے ہیں تاکہ اس بات کا موازنہ کیا جا سکے کہ AI کے "ہاتھوں" کے ذریعے اصل ڈیٹا کو کس طرح ایڈٹ کیا گیا ہے۔

فی الحال، کچھ ابھرتی ہوئی ٹیکنالوجیز ویڈیو میں مقررہ وقت کے وقفوں پر ہیش ویلیوز داخل کرنے کے لیے انکرپشن الگورتھم کا استعمال کرتی ہیں۔ اگر ویڈیو میں ترمیم کی گئی ہے تو ہیش ویلیو بدل جائے گی اور وہاں سے صارفین تصدیق کر سکتے ہیں کہ آیا مواد کے ساتھ چھیڑ چھاڑ کی گئی ہے یا نہیں۔

ماضی میں ویڈیوز میں بے ضابطگیوں کو تلاش کرنے کے بارے میں کچھ ٹیوٹوریل ہو چکے ہیں، مثال کے طور پر، رنگ کی انحراف، پٹھوں کی غیر فطری حرکت، آنکھوں کی حرکت... تاہم، AI زیادہ ہوشیار ہو رہا ہے اس لیے یہ اقدار ہمیشہ درست نتائج نہیں دیتیں۔

ویڈیوز کی وشوسنییتا کی تصدیق کا عمل اب کھلی آنکھوں پر مبنی نہیں ہے بلکہ جعلی مواد کو روکنے اور اس کا پتہ لگانے کے مقصد سے بنائے گئے تکنیکی آلات کی ضرورت ہے۔

کھنہ لن



ماخذ

تبصرہ (0)

No data
No data

اسی موضوع میں

اسی زمرے میں

Tay Con Linh کے اونچے پہاڑوں میں Hoang Su Phi کا پرامن سنہری موسم
دا نانگ کا گاؤں 2025 میں دنیا کے 50 سب سے خوبصورت دیہات میں شامل ہے۔
لالٹین کرافٹ ولیج وسط خزاں فیسٹیول کے دوران آرڈرز سے بھر جاتا ہے، جیسے ہی آرڈر دیا جاتا ہے۔
گیا لائی کے ساحل پر سمندری سوار کے جام کو کھرچنے کے لیے چٹانوں سے چمٹ کر احتیاط سے جھولنا

اسی مصنف کی

ورثہ

پیکر

کاروبار

No videos available

خبریں

سیاسی نظام

مقامی

پروڈکٹ