ما رأيك في اتجاه القراصنة إلى "تسليح" الذكاء الاصطناعي لتنفيذ الهجمات الإلكترونية والاحتيال؟
الدكتور نجوين توان كانج: وفقًا لمؤشر IBM X-Force Threat Intelligence Index لعام 2024، فإن منطقة آسيا والمحيط الهادئ، بما في ذلك فيتنام، هي المنطقة التي تعاني من أكبر عدد من الهجمات الإلكترونية في العالم في عام 2023. ومن بين هذه الهجمات، تعد الصناعة التحويلية هي الصناعة الأكثر تضررًا من الهجمات الإلكترونية.
لا تزال هجمات التصيد الاحتيالي، التي تستهدف الفئات الضعيفة، واستغلال الثغرات لتثبيت البرامج الضارة، هي الأسلوب الرئيسي للمجرمين. كما أن التوجه الصاعد في عام ٢٠٢٤ هو الهجمات الإلكترونية التي تستخدم الذكاء الاصطناعي.
يشير تقرير Wired إلى أن العديد من الأشرار يستخدمون الذكاء الاصطناعي التوليدي للمساعدة في توجيه عمليات الاختراق، وإنشاء روبوتات محادثة احتيالية، أو صور ومقاطع فيديو مزيفة لوجوه وأصوات أشخاص آخرين باستخدام Deepfake.
مع ذلك، بالتزامن مع هذا التوجه، بدأت أنظمة أمن المعلومات أيضًا بدمج ميزات الذكاء الاصطناعي، مثل واتسون إكس. يُمكن استغلال الذكاء الاصطناعي، بل يُمكنه أيضًا أن يحل محل البشر في التحليل والمراقبة وتحديد الأرقام والتنبؤ بسيناريوهات الهجوم، مما يُحسّن القدرات الدفاعية ويُقلل من مخاطر أمن المعلومات.
تزداد عمليات الاحتيال بتقنية التزييف العميق شيوعًا. مع التطور السريع للذكاء الاصطناعي، ما مدى خطورة هذه الهجمات مستقبلًا؟
د. نجوين توان كانغ: ببساطة، الديب فيك هي تقنية تُمكّن المخترقين من إنشاء هويات رقمية مزيفة، ومن ثم انتحال هويات الآخرين. ستُشكّل الديب فيك مشكلة خطيرة، نظرًا لتطور هذه التقنية بشكل متزايد.
لمكافحة التزييف العميق، أول ما يجب فعله هو تحديد ما إذا كانت صورة الشخص أو صوته مُولّدة بالذكاء الاصطناعي. لا توجد حاليًا أداة عالمية قادرة على كشف التزييف العميق فورًا، لأن المهاجمين يطورون نماذج جديدة باستمرار.
بالإضافة إلى كشف التزييف العميق، هناك تقنية أخرى للتعامل معه، وهي استخدام التكنولوجيا لتحليل السلوك. من منظور تنظيمي وتجاري، من الضروري تطوير نظام يجمع بين هاتين التقنيتين.
في الآونة الأخيرة، وقعت هجمات إلكترونية زرع فيها المخترقون برمجيات خبيثة في أنظمة الشركات سرًا. تتربص هذه البرمجيات الخبيثة وتحلل جميع الأنشطة، مُنشئةً هوية مزيفة لتنفيذ نوايا خبيثة. مع تطور تقنية التزييف العميق (Deepfake)، بالإضافة إلى القدرة على إنشاء مقاطع فيديو باستخدام الذكاء الاصطناعي، ستصبح هذه الأنواع من الهجمات أكثر خطورة في المستقبل.
مع تصاعد هجمات Deepfake الإلكترونية، كيف يمكننا حماية كبار السن والأطفال والفئات الضعيفة الأخرى من المحتالين؟
د. نجوين توان كانغ: كثيرًا ما يتعرض كبار السن والأطفال لهجمات المحتالين باستخدام تقنية تُسمى الهندسة الاجتماعية. هذا مصطلح يصف الهجمات التي تتم من خلال التلاعب بالسلوك البشري.
يستطيع المخترقون الآن استخدام الذكاء الاصطناعي، إلى جانب جمع البيانات واستخراجها وتحليلها، لتحديد الأشخاص المعرضين للاحتيال، ومن ثم إيجاد طرق لمهاجمتهم. بالإضافة إلى رفع مستوى الوعي في المجتمع، يجب علينا أيضًا تقبّل حقيقة وقوع حالات احتيال على المستخدمين، واستخدام التكنولوجيا للكشف عنها ومنعها.
في الآونة الأخيرة، اشتبه موظف بنك في امرأة عجوز جاءت لتحويل الأموال، وكانت عليها علامات احتيال. فأوقف الموظف المعاملة على الفور وأبلغ السلطات. وقد أصبحت أنظمة تكنولوجيا المعلومات في البنوك مزودة بتقنيات تُغني عن العنصر البشري في مثل هذه المهام.
دور التكنولوجيا هو أنه حتى لو عُرف أن المُرسِل هو الشخص الحقيقي، فسيظل النظام يمنع هذا السلوك إذا اشتبه في أن شخصًا آخر يتلاعب به. تُسمى هذه الأدوات أنظمة الحد من الاحتيال والتزوير.
هل حان الوقت لفيتنام لفرض عقوبات لإدارة الذكاء الاصطناعي ووضع أبحاث الذكاء الاصطناعي وتطويره واستخدامه في إطار عمل؟
د. نجوين توان كانغ: لطالما ذُكرت عقوبات على إدارة الذكاء الاصطناعي، ومع ذلك، لا تزال هناك خلافات كثيرة. على سبيل المثال، موقف السيارات في منطقتي مزود بنظام ذكاء اصطناعي للتعرف على لوحات السيارات، ومع ذلك كانت هناك سرقات. في ذلك الوقت، بدأ الجدل حول من يتحمل المسؤولية. هل يتحمل مالك الشقة، أم حارس الأمن، أم الوحدة التي تُطوّر نظام الذكاء الاصطناعي المسؤولية؟
منذ ذلك الحين، غيّر المبنى قواعده، مُشيرًا إلى أنه يُمكن للسكان استخدام الذكاء الاصطناعي للتعرف على لوحات السيارات لتسهيل الأمر عليهم، ولكن عليهم تقبّل المخاطر. سيتمكن من يوافق على ذلك من استخدام الأبواب الأوتوماتيكية، بينما سيُضطر من يرفضه إلى ركن سيارته بالطريقة القديمة. نحن بحاجة إلى عقوبات كهذه.
وبالمثل، طورت شركة IBM نظام ذكاء اصطناعي للمساعدة في الوقاية من السرطان. عندما يصف النظام دواءً ولا يزال المريض غير قادر على التعافي بعد تناوله، فهل يقع اللوم على الطبيب أم على الذكاء الاصطناعي؟
أعتقد أن تنظيم الذكاء الاصطناعي يجب أن يكون محددًا، وأن يُحدد بوضوح ما يُمكن وما لا يُمكن فعله عند تطوير تطبيقات الذكاء الاصطناعي. ولجعل العالم أكثر أمانًا، فإن أبسط تنظيم يُمكننا تطبيقه هو اشتراط المصادقة البيومترية على التحويلات المالية الكبيرة. في هذه الحالة، يُمكن للأشخاص الذين يفقدون معلومات هويتهم تجنب خسارة أموالهم تمامًا.
شكرا لك سيدي.
[إعلان 2]
مصدر
تعليق (0)