اسی مناسبت سے، 22 مئی کو مصنوعی ذہانت (AI) کے ذریعے پینٹاگون کے قریب ہونے والے دھماکے کی تصویر امریکی سوشل نیٹ ورکس پر شیئر کی گئی تھی، جس کی وجہ سے کچھ ہی عرصے میں اسٹاک مارکیٹ گر گئی، اس طرح AI سے پیدا ہونے والی جعلی خبروں کے بارے میں خدشات بڑھ گئے۔
| پینٹاگون کے قریب دھماکے کی AI سے تیار کردہ جعلی تصویر۔ |
ایک آن لائن حقائق کی جانچ کرنے والے گروپ بیلنگ کیٹ کے نک واٹرز نے تصویر کے ساتھ قابل ذکر مسائل کی نشاندہی کرنے میں جلدی کی۔ سب سے پہلے، واقعے کی تصدیق کرنے کے لیے کوئی عینی شاہد موجود نہیں ہے۔ تصویر میں عمارت بھی پینٹاگون جیسی نہیں لگتی۔ کچھ غیر معمولی تفصیلات، جیسے فٹ پاتھ سے نمایاں لیمپ پوسٹس اور سیاہ کالم، اس بات کی علامت ہیں کہ تصویر حقیقی نہیں ہے۔
بہت سے مصنوعی ذہانت (AI) تعمیر نو کے اوزار ہیں جیسے Midjourney، Dall-e 2، اور Stable Diffusion جو زندگی جیسی تصاویر بنا سکتے ہیں۔ تاہم، جب ڈیٹا کی کمی ہوگی تو یہ ٹولز خلا کو پُر کریں گے۔
الجزیرہ نے AI سے تیار کردہ تصاویر اور بڑے واقعات کی حقیقی تصاویر کے درمیان فرق کرنے کے لیے کچھ اقدامات کیے ہیں جب وہ انٹرنیٹ پر ظاہر ہوتے ہیں:
- کسی دھماکے یا کسی بڑے واقعے کی صورت میں، عام طور پر ایک سے زیادہ لوگوں اور متعدد نقطہ نظر سے حقائق پر مبنی معلومات ہوں گی۔
- کون مواد پوسٹ کر رہا ہے؟ وہ کہاں واقع ہیں اور واقعہ کہاں ہے؟ وہ کن اکاؤنٹس کو فالو کر رہے ہیں اور کون ان کو فالو کر رہا ہے۔ کیا آپ ان تک پہنچ سکتے ہیں یا ان سے بات کر سکتے ہیں؟
- تصاویر اور اردگرد کا تجزیہ کریں: تصویر میں سراغ تلاش کریں جیسے کہ قریبی مقامات، ٹریفک کے نشانات، وغیرہ تاکہ آپ کو یہ تعین کرنے میں مدد ملے کہ کوئی واقعہ کہاں یا کب ہو سکتا ہے۔
- لوگوں کی تصاویر کے لیے، ان کی آنکھوں، ہاتھوں اور عمومی کرنسی پر توجہ دیں۔ AI سے تیار کردہ ویڈیوز جو انسانوں کی نقل کرتی ہیں، جنہیں ڈیپ فیکس کہا جاتا ہے، ان میں پلک جھپکنے میں دشواری ہوتی ہے کیونکہ زیادہ تر تربیتی ڈیٹا سیٹس میں بند آنکھوں والے چہرے نہیں ہوتے ہیں۔ ہاتھ اشیاء کو ٹھیک طرح سے نہیں پکڑیں گے۔
- AI سے تیار کردہ تصاویر میں لوگوں کی جلد اکثر ہموار ہوگی، اور یہاں تک کہ ان کے بال اور دانت بھی واقعی کامل ہوں گے۔
ماخذ






تبصرہ (0)