يستغل مجرمو الإنترنت أدوات الذكاء الاصطناعي التوليدية، مثل ChatGPT، لإنشاء رسائل تصيد احتيالي للشركات وغيرها، وفقًا لتقرير صادر عن شركة الأمن السيبراني SlashNext. في استطلاع رأي شمل أكثر من 300 متخصص في الأمن السيبراني في أمريكا الشمالية، أفاد ما يقرب من نصفهم بأنهم تعرضوا لهجوم تصيد احتيالي يستهدف شركة، بينما أفاد 77% منهم بأنهم تعرضوا لاستهداف من جهات خارجية.
قال باتريك هار، الرئيس التنفيذي لشركة SlashNext، إن النتائج تُعزز المخاوف بشأن مساهمة الذكاء الاصطناعي المُولِّد في تزايد عمليات الاحتيال. غالبًا ما يستخدم المحتالون الذكاء الاصطناعي لتطوير برامج ضارة أو عمليات احتيال تعتمد على الهندسة الاجتماعية لزيادة معدلات نجاحهم.
وبحسب التقارير، يحدث ما معدله 31 ألف عملية احتيال عبر الإنترنت يوميًا.
وأضاف هار أن إطلاق ChatGPT في أواخر عام 2022 يتزامن مع الإطار الزمني الذي شهدت فيه SlashNext ارتفاعًا في هجمات التصيد.
ونقلاً عن تقرير عن جرائم الإنترنت صادر عن مكتب التحقيقات الفيدرالي الأمريكي (FBI)، فإن خدعة إرسال رسائل بريد إلكتروني مزيفة إلى الشركات تسببت في أضرار تقدر بنحو 2.7 مليار دولار بحلول عام 2022.
في حين دار جدل حول التأثير الحقيقي للذكاء الاصطناعي التوليدي على الجرائم الإلكترونية، يعتقد هار أن روبوتات الدردشة مثل ChatGPT تُستخدم كسلاح في الهجمات الإلكترونية. على سبيل المثال، في يوليو، اكتشف باحثو SlashNext روبوتي دردشة خبيثين يُطلق عليهما WormGPT وFraudGPT، واللذان استُخدما كأدوات لمجرمي الإنترنت لتنفيذ حملات تصيد احتيالي متطورة.
يقول كريس ستيفن، مدير الأبحاث في شركة Enterprise Management Associates، إن المتسللين يستخدمون نماذج الذكاء الاصطناعي التوليدي ومعالجة اللغة الطبيعية (NLP) لارتكاب عمليات التصيد الاحتيالي. وباستخدام الذكاء الاصطناعي لتحليل المعلومات والمقالات القديمة وتقليد وثائق حكومية أو مؤسسية، تصبح رسائل التصيد الاحتيالي مقنعة للغاية ويصعب تمييزها.
لمكافحة تزايد الهجمات، يجب على الأفراد تعزيز الوعي الأمني والحذر من رسائل البريد الإلكتروني أو الأنشطة المشبوهة. ومن الحلول الأخرى استخدام أدوات تصفية البريد الإلكتروني التي تستخدم الذكاء الاصطناعي والتعلم الآلي لمنع التصيد الاحتيالي. كما يتعين على المؤسسات إجراء عمليات تدقيق أمنية منتظمة، وتحديد نقاط الضعف في النظام ونقاط الضعف في تدريب الموظفين، ومعالجة المشكلات المعروفة على الفور للحد من خطر الهجوم.
[إعلان 2]
رابط المصدر
تعليق (0)