Vietnam.vn - Nền tảng quảng bá Việt Nam

کاسپرسکی نے سائبر کرائمینز سے خبردار کیا ہے کہ حملہ کرنے کے لیے ڈارک اے آئی کا استعمال کرتے ہیں۔

15 اگست کو، سیکیورٹی فرم کاسپرسکی نے ایک انتباہ جاری کیا کہ ایشیا پیسیفک ریجن (APAC) میں ڈارک AI (بدنتی پر مبنی مقاصد کے لیے AI کا استعمال، قانون کی خلاف ورزی کرتے ہوئے...) کے اضافے کی وجہ سے سائبر حملے زیادہ نفیس اور پتہ لگانا مشکل تر ہوتے جا رہے ہیں۔

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng15/08/2025

Kaspersky سیکورٹی کمپنی کا نمائندہ حملہ کرنے کے لیے ڈارک AI کا استعمال کرتے ہوئے سائبر جرائم پیشہ افراد کے بارے میں معلومات فراہم کرتا ہے۔
Kaspersky سیکورٹی کمپنی کا نمائندہ حملہ کرنے کے لیے ڈارک AI کا استعمال کرتے ہوئے سائبر جرائم پیشہ افراد کے بارے میں معلومات فراہم کرتا ہے۔

ڈارک اے آئی حفاظتی اصولوں سے ہٹ کر کام کرتا ہے، جو اکثر دھوکہ دہی، ہیرا پھیری، سائبر حملے، یا ڈیٹا مائننگ جیسے طرز عمل کی اجازت دیتا ہے بغیر کسی قریبی نگرانی کے۔

"برے اداکار بھی اپنی حملہ آور صلاحیتوں کو بڑھانے کے لیے AI کا استعمال کر رہے ہیں۔ آج کل AI کا سب سے عام استعمال بلیک ہیٹ GPT ماڈلز کا ظہور ہے۔ یہ AI ماڈلز ہیں جو خاص طور پر غیر قانونی مقاصد کے لیے تیار کیے گئے ہیں جیسے کہ میلویئر بنانا، فشنگ ای میلز کا مسودہ تیار کرنا، آوازیں بنانا اور ڈیپ فیک ویڈیوز..."، ریسرچ ٹیم Lozhly-Serge. کاسپرسکی میں مشرق وسطیٰ، ترکی، افریقہ اور ایشیا پیسفک کے انچارج۔

بلیک ہیٹ GPTs مکمل طور پر نجی یا نیم نجی AI ماڈل کے طور پر موجود ہو سکتے ہیں۔ کچھ قابل ذکر مثالوں میں شامل ہیں WormGPT، DarkBard، FraudGPT، اور Xanthorox… سبھی سائبر کرائم، فراڈ، اور بدنیتی پر مبنی آٹومیشن کے لیے ڈیزائن کیے گئے ہیں۔

مسٹر لوزکن نے انکشاف کیا کہ کاسپرسکی کے ماہرین اب ایک اور بھی زیادہ تشویشناک رجحان ریکارڈ کر رہے ہیں، جس میں قومی ریاست یا حکومت کے حمایت یافتہ سائبر اٹیک گروپس اپنی حملے کی مہموں میں بڑے لینگویج ماڈلز (LLMs) کا فائدہ اٹھانا شروع کر رہے ہیں۔

"OpenAI نے حال ہی میں اعلان کیا ہے کہ اس نے 20 سے زیادہ خفیہ اثر و رسوخ کی مہمات اور سائبر حملوں میں خلل ڈالا ہے جو اس کے AI ٹولز کا استحصال کر رہے تھے۔ ہم تیزی سے جدید ترین حملہ آوروں کو AI کو ہتھیار بناتے ہوئے دیکھیں گے، جو سرکاری اور نجی دونوں ماحولیاتی نظاموں کے لیے خطرہ ہیں۔ یہ ایک تشویشناک رجحان ہے جس کے لیے تمام تنظیموں کو تیار رہنے کی ضرورت ہے،" لوزکن نے کہا۔

OpenAI کی ایک رپورٹ کے مطابق، نقصان دہ اداکاروں نے متاثرین کو دھوکہ دینے اور روایتی حفاظتی تہوں کو نظرانداز کرنے کے لیے بڑے مشین لرننگ ماڈلز (LLMs) کی صلاحیتوں سے فائدہ اٹھانا شروع کر دیا ہے۔ وہ قائل کرنے والے جعلی پیغامات بنا سکتے ہیں، متاثرین کو بڑی تعداد میں پیغامات بھیج سکتے ہیں، اور متعدد زبانوں میں مواد تیار کر سکتے ہیں۔

ڈارک اے آئی کے خطرات کے خلاف دفاع کو مضبوط بنانے کے لیے، کاسپرسکی ماہرین تجویز کرتے ہیں: اگلی نسل کے حفاظتی حل جیسے کہ کاسپرسکی نیکسٹ کا استعمال کرتے ہوئے AI سے پیدا ہونے والے مالویئر کا پتہ لگانے اور سپلائی چین میں خطرات کو کنٹرول کریں۔ AI سے چلنے والے کارناموں کی نگرانی کے لیے ریئل ٹائم تھریٹ انٹیلی جنس ٹولز کا استعمال۔ شیڈو AI اور ڈیٹا کے رساو کے خطرے کو محدود کرنے کے لیے رسائی کے کنٹرول اور ملازمین کی تربیت کو مضبوط بنانا۔ خطرات کی نگرانی اور واقعات کا فوری جواب دینے کے لیے سیکیورٹی آپریشن سینٹر (SOC) کا قیام۔

ماخذ: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html


تبصرہ (0)

No data
No data

اسی موضوع میں

اسی زمرے میں

بن لیو میں سرکنڈے کی گھاس کے لیے 'شکار' کے موسم میں
کین جیو مینگروو جنگل کے وسط میں
Quang Ngai ماہی گیر کیکڑے کے ساتھ جیک پاٹ مارنے کے بعد روزانہ لاکھوں ڈونگ جیب میں ڈالتے ہیں
ین نی کی قومی ملبوسات کی کارکردگی کی ویڈیو کو مس گرینڈ انٹرنیشنل میں سب سے زیادہ دیکھا گیا ہے۔

اسی مصنف کی

ورثہ

پیکر

کاروبار

ویتنام میں 'نیٹ ترین' مارکیٹ

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ