ما رأيك في اتجاه القراصنة إلى "تسليح" الذكاء الاصطناعي لتنفيذ الهجمات الإلكترونية والاحتيال؟
الدكتور نجوين توان كانج: وفقًا لمؤشر IBM X-Force Threat Intelligence Index لعام 2024، فإن منطقة آسيا والمحيط الهادئ ، بما في ذلك فيتنام، هي المنطقة التي ستعاني من أكبر عدد من الهجمات الإلكترونية في العالم في عام 2023. ومن بين هذه الصناعات، تعد الصناعة التحويلية هي الصناعة الأكثر تضررًا من الهجمات الإلكترونية.
لا تزال هجمات التصيد الاحتيالي التي تستهدف الفئات الضعيفة واستغلال الثغرات لتثبيت البرامج الضارة هي الأسلوب الرئيسي للمجرمين. إضافةً إلى ذلك، من المتوقع في عام ٢٠٢٤ أن تكون الهجمات الإلكترونية باستخدام الذكاء الاصطناعي.
يشير تقرير Wired إلى أن العديد من الأشرار يستخدمون الذكاء الاصطناعي التوليدي للمساعدة في توجيه عمليات الاختراق، أو إنشاء روبوتات محادثة احتيالية، أو إنشاء صور ومقاطع فيديو مزيفة تحاكي وجوه وأصوات الآخرين.
مع ذلك، بالتزامن مع هذا التوجه، بدأت أنظمة أمن المعلومات أيضًا بدمج ميزات الذكاء الاصطناعي، مثل واتسون إكس. يُمكن استغلال الذكاء الاصطناعي، بل يُمكنه أيضًا أن يحل محل البشر في التحليل والمراقبة وتحديد الأرقام والتنبؤ بسيناريوهات الهجوم، مما يُحسّن القدرات الدفاعية ويُقلل من مخاطر أمن المعلومات.
تزداد عمليات الاحتيال بتقنية التزييف العميق شيوعًا. مع التطور السريع للذكاء الاصطناعي، ما مدى خطورة هذه الهجمات مستقبلًا؟
د. نجوين توان كانغ: باختصار، الديب فيك هي تقنية تُمكّن المخترقين من إنشاء هويات رقمية مزيفة، ومن ثم انتحال هويات الآخرين. ستُشكّل الديب فيك مشكلة خطيرة، نظرًا لتطور هذه التقنية بشكل متزايد.
لمكافحة التزييف العميق، أول ما يجب فعله هو تحديد ما إذا كانت صورة الشخص أو صوته مُولّدة بالذكاء الاصطناعي. لا توجد حاليًا أداة عالمية قادرة على كشف التزييف العميق فورًا، لأن المهاجمين يطورون نماذج جديدة باستمرار.
بالإضافة إلى كشف التزييف العميق، هناك تقنية أخرى للتعامل معه، وهي استخدام التكنولوجيا لتحليل السلوك. من منظور تنظيمي وتجاري، من الضروري تطوير نظام يجمع بين هاتين التقنيتين.
في الآونة الأخيرة، وقعت هجمات إلكترونية زرع فيها المخترقون برمجيات خبيثة في أنظمة الشركات سرًا. تتربص هذه البرمجيات الخبيثة وتحلل جميع الأنشطة، مُنشئةً هوية مزيفة لتنفيذ نوايا خبيثة. مع تطور تقنية التزييف العميق (Deepfake)، بالإضافة إلى إمكانية إنشاء مقاطع فيديو باستخدام الذكاء الاصطناعي، ستصبح هذه الأنواع من الهجمات أكثر خطورة في المستقبل.
مع تصاعد هجمات Deepfake الإلكترونية، كيف يمكننا حماية كبار السن والأطفال والفئات الضعيفة الأخرى من المحتالين؟
د. نجوين توان كانغ: كثيرًا ما يتعرض كبار السن والأطفال لهجمات المحتالين باستخدام تقنية تُسمى الهندسة الاجتماعية. هذا مصطلح يصف الهجمات التي تتم من خلال التلاعب بالسلوك البشري.
يستطيع المخترقون الآن استخدام الذكاء الاصطناعي، إلى جانب جمع البيانات واستخراجها وتحليلها، لتحديد الأشخاص المعرضين للاحتيال، ومن ثم إيجاد طرق لمهاجمتهم. بالإضافة إلى رفع مستوى الوعي في المجتمع، يجب علينا أيضًا تقبّل احتمالية وقوع حالات احتيال على المستخدمين، واستخدام التكنولوجيا للكشف عنها ومنعها.
في الآونة الأخيرة، اشتبه موظف بنك في امرأة عجوز جاءت لتحويل الأموال، وظهرت عليها علامات الاحتيال. فأوقف الموظف المعاملة على الفور وأبلغ السلطات. وقد أصبحت أنظمة تكنولوجيا المعلومات في البنوك مزودة بتقنيات تُغني عن العنصر البشري في مثل هذه المهام.
دور التكنولوجيا هو أنه حتى لو كان المُرسِل معروفًا بأنه الشخص الحقيقي، فسيُوقف النظام التحويل إذا اشتبه في أن المعاملة مُتلاعب بها من قِبل شخص آخر. تُسمى هذه الأدوات أنظمة منع الاحتيال.
هل حان الوقت لفيتنام لفرض عقوبات لإدارة الذكاء الاصطناعي ووضع أبحاث الذكاء الاصطناعي وتطويره واستخدامه في إطار عمل؟
د. نجوين توان كانغ: لطالما نوقشت مسألة إدارة الذكاء الاصطناعي، ومع ذلك، لا تزال هناك خلافات كثيرة. على سبيل المثال، موقف السيارات في منطقتي مزود بنظام ذكاء اصطناعي للتعرف على لوحات السيارات، ومع ذلك استمرت السرقات. في ذلك الوقت، بدأ الجدل حول من يتحمل المسؤولية. هل يتحمل مالك الشقة، أم حارس الأمن، أم مطور نظام الذكاء الاصطناعي المسؤولية؟
منذ ذلك الحين، غيّر المبنى قواعده، مُشيرًا إلى أنه يُمكن للسكان استخدام الذكاء الاصطناعي للتعرف على لوحات السيارات لتسهيل الأمر عليهم، ولكن عليهم تقبّل المخاطر. من يوافق سيتمكن من استخدام الأبواب الأوتوماتيكية، أما من يرفض فسيضطر إلى ركن سيارته بالطريقة القديمة. نحن بحاجة إلى عقوبات كهذه.
وبالمثل، طورت شركة IBM نظام ذكاء اصطناعي للمساعدة في الوقاية من السرطان. عندما يصف النظام دواءً، لكن المريض يتناوله ولا يزال غير قادر على التعافي، فهل هو خطأ الطبيب أم خطأ الذكاء الاصطناعي؟
أعتقد أن تنظيم الذكاء الاصطناعي يجب أن يكون محددًا، وأن يُحدد بوضوح ما يُمكن وما لا يُمكن فعله عند تطوير تطبيقات الذكاء الاصطناعي. ولجعل العالم أكثر أمانًا، فإن أبسط تنظيم يُمكننا تطبيقه هو اشتراط التعرّف البيومتري على التحويلات المالية الكبيرة. في هذه الحالة، يُمكن للأشخاص الذين يفقدون معلومات هويتهم تجنب خسارة أموالهم تمامًا.
شكرًا لك.
[إعلان 2]
مصدر
تعليق (0)