ہر کونے سے حملہ
گوگل نے "جیمنی نینو کیلے" کے نام سے ایک نئی مصنوعی ذہانت (AI) پروڈکٹ لانچ کی ہے، جو کہ لکھنے اور استدلال کرنے کی صلاحیت کے ساتھ ایک بڑی زبان AI (LLM) نہیں ہے، بلکہ تصویر ایڈیٹنگ میں مہارت رکھنے والا AI ہے... بہت سے صارفین اس ٹول کے بارے میں پرجوش ہیں، لیکن یہ بہت سے نقصان دہ اثرات بھی لاتا ہے۔

Conductify AI میں سائنس کے ڈائریکٹر Nguyen Hong Phuc نے کہا، "یہ ٹیکنالوجی اور AI اخلاقیات کی "رجعت" کی طرح ہے۔ "جیمنی نینو کیلے میں تصاویر کو مؤثر طریقے سے ایڈٹ کرنے کی صلاحیت ہے۔ لیکن گوگل کی جیمنی نینو کیلے کی سینسرنگ، جو رکاوٹوں اور محدود میکانزم کو کم کرتی ہے، اس AI کو ایسی تصاویر بنانے کی اجازت دیتی ہے جو مشہور شخصیات، سیکسی تصاویر، حساس تصاویر سے بہت ملتی جلتی نظر آتی ہیں..."، مسٹر Phuc نے کہا۔
مسٹر Nguyen Hong Phuc کے مطابق، یہ صلاحیت Gemini Nano Banana کو جعلی تصاویر بنانے کا ایک ٹول بناتی ہے جسے AI ماہرین بھی فرق نہیں کر سکتے، جس سے دھوکہ دہی اور سائبر سکیورٹی کے نئے خطرات پیدا ہوتے ہیں، جیسے کہ جعلی معلومات پھیلانے کے لیے سیاستدانوں اور مشہور سیاستدانوں کے ساتھ تصاویر بنانا، حتیٰ کہ افراد اپنی تصاویر اور سوشل نیٹ ورک ڈی ایف اے کے ذریعے ایڈٹ کر لیتے ہیں۔
اس کے علاوہ، درجنوں دیگر فوٹو ایڈیٹنگ AI ٹولز آن لائن "موجیں بناتے ہیں" کے ساتھ، ڈیپ فیک فراڈ کی کوئی انتہا نہیں ہے۔ سیکیورٹی اداروں کے اعداد و شمار بتاتے ہیں کہ ڈیپ فیک ٹیکنالوجی اعلیٰ قدر والے افراد، خاص طور پر کاروباری رہنماؤں کو نشانہ بنانے والی دھوکہ دہی کی مہمات تخلیق کرتی ہے۔ 2024 میں، عالمی سطح پر 140,000-150,000 کیسز تھے، جن میں سے 75% نے CEOs اور سینئر لیڈروں کو نشانہ بنایا... Deepfake 2027 تک عالمی اقتصادی نقصانات میں 32%، تقریباً 40 بلین USD/سال کا اضافہ کر سکتا ہے۔
حال ہی میں، AI Anthropic کمپنی نے غیر ملکی ہیکرز کی جانب سے کی جانے والی سائبر حملے کی مہم کا سراغ لگایا اور اسے روکا، جس میں پہلی بار خودکار حملے کی سرگرمیوں کو مربوط کرنے کے لیے AI کے استعمال کو ریکارڈ کیا گیا۔ خاص طور پر، ہیکرز نے دخل اندازی کی سرگرمیوں کی منصوبہ بندی، براہ راست اور تعیناتی کے لیے AI سسٹمز کا استعمال کیا - ایک "پریشان کن" پیش رفت، جس میں سائبر حملے کی مہموں کے پیمانے اور رفتار میں توسیع کا خطرہ ہے...
نیشنل سائبر سیکیورٹی ایسوسی ایشن کے اینٹی فراڈ آرگنائزیشن کے ڈائریکٹر مسٹر نگو من ہیو نے شیئر کیا کہ AI سے مربوط ٹول کی دھوکہ دہی کی رفتار حقیقی لوگوں کے استعمال سے تقریباً 20 گنا زیادہ ہے۔ مضامین تجزیے کے لیے AI کو فراڈ کا منظرنامہ دیتے ہیں، اور فوری طور پر سسٹم خود بخود متاثرین کے ساتھ بات چیت کرے گا۔ ابتدائی ڈیٹا سے، AI جان سکتا ہے کہ شکار کیا چاہتا ہے اور حقیقی وقت میں شکار کے ساتھ بات چیت کر سکتا ہے۔ سب سے زیادہ نفیس چال "مین-ان-دی-مڈل" حملہ ہے، جس کا مطلب ہے کہ جب صارف ویڈیو کی توثیق کرتا ہے جیسے کہ چہرہ موڑنا، کمانڈ پڑھنا، تو ہیکر درمیان میں کھڑا ہو کر منتقل شدہ ڈیٹا میں مداخلت کرے گا۔ اس وقت، سائبر کرائمین تیار شدہ ڈیپ فیک ویڈیوز ڈالتے ہیں، تصدیق کو نظرانداز کرنے کے لیے صارف کے اصلی ڈیٹا اسٹریم کو تبدیل کرتے ہیں... مذکورہ طریقہ کے ساتھ، بینکوں اور مالیاتی اداروں کے سیکیورٹی سسٹمز کو بھی اسکام ہونے کا خطرہ ہوتا ہے۔
بہتر ڈیٹا مینجمنٹ
جیسے جیسے AI زیادہ مقبول ہوتا جاتا ہے، سیکورٹی اور رازداری کے خطرات بھی نمایاں طور پر بڑھ جاتے ہیں۔ ریموٹ سرورز پر ذخیرہ شدہ اور پراسیس شدہ ڈیٹا ہیکرز اور سائبر کرائمین تنظیموں کے لیے ایک پرکشش ہدف بن جائے گا۔ نیشنل سائبر سیکیورٹی ایسوسی ایشن کے اعداد و شمار کے مطابق، صرف 2025 کی دوسری سہ ماہی میں، AI کا استعمال کرتے ہوئے سائبر حملوں کی تعداد میں 62 فیصد اضافہ ہوا، جس سے عالمی سطح پر 18 بلین امریکی ڈالر تک کا نقصان ہوا۔
ماہرین کا کہنا ہے کہ ڈیٹا کی حفاظت بہت ضروری ہے۔ تاہم، ڈیٹا اکٹھا کرنا اور فروخت اب بھی بہت سے "ڈارک مارکیٹ" پلیٹ فارمز پر کھلے عام ہو رہی ہے، ماہانہ 20 ڈالر تک۔ سائبر کرائمین ایسے ٹولز استعمال کر سکتے ہیں جو زبان کے ماڈلز کی طرح کام کرتے ہیں لیکن مجرمانہ مقاصد کے لیے اپنی مرضی کے مطابق بنائے گئے ہیں۔ یہ ٹولز بدنیتی پر مبنی کوڈ بنانے اور اینٹی وائرس سافٹ ویئر کو بائی پاس کرنے کی صلاحیت رکھتے ہیں۔
ویتنام میں، فرمان نمبر 13/2023/ND-CP (17 اپریل 2023 سے مؤثر) ذاتی ڈیٹا کے تحفظ کو منظم کرتا ہے۔ اس کے علاوہ، ذاتی ڈیٹا کے تحفظ کا قانون 1 جنوری 2026 سے لاگو ہونے کی توقع ہے، جو ذاتی ڈیٹا کے رساو اور غلط استعمال کے خطرے کا جواب دینے کے لیے ایک مضبوط قانونی طریقہ کار کھولے گا۔ تاہم، نیشنل سائبر سیکیورٹی ایسوسی ایشن کے مطابق، نفاذ کی تاثیر کو اب بھی تینوں ستونوں پر مضبوط کرنے کی ضرورت ہے: لوگوں میں بیداری بڑھانا، کاروباری ذمہ داری میں اضافہ، اور انتظامی ایجنسیوں کی ہینڈلنگ کی صلاحیت کو بہتر بنانا۔ تکنیکی اقدامات کے علاوہ، ہر فرد کو غیر معمولی اور مشکوک علامات کی شناخت کرنے اور خطرناک ڈیجیٹل تعاملات سے خود کو فعال طور پر بچانے کی صلاحیت پیدا کرنے کی ضرورت ہے۔
سیکیورٹی فرم کاسپرسکی نے ڈارک AI کے غلط استعمال کے خلاف خبردار کیا ہے (ایک اصطلاح جو بڑے لینگویج ماڈلز (LLMs) کی تعیناتی کو بیان کرنے کے لیے استعمال ہوتی ہے جو معیاری سیکیورٹی کنٹرول سے باہر کام کرتی ہے، جو اکثر دھوکہ دہی، ہیرا پھیری، سائبر حملے، یا ڈیٹا کے غلط استعمال کی اجازت دیتی ہے)۔ تنظیموں اور افراد کو ایشیا پیسیفک خطے میں ڈارک AI کے عروج کی وجہ سے بڑھتے ہوئے جدید ترین اور مشکل سے پتہ لگانے والے سائبر حملوں کے لیے تیاری کرنے کی ضرورت ہے۔
کاسپرسکی میں مشرق وسطیٰ، ترکی، افریقہ اور ایشیا پیسیفک ریجن کے انچارج گلوبل ریسرچ اینڈ اینالیسس ٹیم (GReAT) کے سربراہ سرگئی لوزکن نے اشتراک کیا کہ آج AI کے غلط استعمال کا ایک مظہر بلیک ہیٹ GPT ماڈلز کا ابھرنا ہے۔ یہ AI ماڈلز ہیں جو غیر اخلاقی اور غیر قانونی مقاصد کو پورا کرنے کے لیے خاص طور پر تیار کیے گئے ہیں یا ایڈجسٹ کیے گئے ہیں جیسے کہ میلویئر بنانا، ڈرافٹنگ روانی اور انتہائی قائل فشنگ ای میلز کو بڑے پیمانے پر حملوں کی خدمت، آوازیں اور ڈیپ فیک ویڈیوز بنانا، اور یہاں تک کہ نقلی حملے کی کارروائیوں کی حمایت کرنا...
Kaspersky ماہرین تجویز کرتے ہیں کہ افراد اور کاروبار AI سے تیار کردہ میلویئر کا پتہ لگانے کے لیے اگلی نسل کے سیکیورٹی حل استعمال کریں، اور ڈیٹا کے تحفظ کو ایک اہم مقصد کے طور پر شناخت کریں۔ کاروباری اداروں کے لیے، AI سے چلنے والے کارناموں کی نگرانی کے لیے ریئل ٹائم مانیٹرنگ ٹولز کا اطلاق کرنا ضروری ہے۔ اندھیرے میں AI کے رجحان کے ساتھ ساتھ ڈیٹا کے رساو کے خطرے کو محدود کرنے کے لیے رسائی کنٹرول اور عملے کی تربیت کو مضبوط بنانا؛ خطرات پر نظر رکھنے اور واقعات کا فوری جواب دینے کے لیے سائبر سیکیورٹی آپریشنز سینٹر قائم کریں...
ماخذ: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html






تبصرہ (0)