في منشور على مدونته في 30 أغسطس، قال مركز الأمن السيبراني في المملكة المتحدة (NCSC) إن الخبراء ما زالوا لا يفهمون تمامًا مشكلات الأمن السيبراني المحتملة المرتبطة بالخوارزميات التي يمكنها التفاعل "مثل البشر"، والتي تسمى نماذج اللغة الكبيرة (LLM).
يُحذّر المركز الوطني للأمن الإلكتروني من أن هذا قد يُشكّل مخاطر، خاصةً عند دمج هذه النماذج في العمليات التجارية. كما اكتشف الأكاديميون والباحثون مؤخرًا طرقًا لخداع الذكاء الاصطناعي، من خلال إعطائه أوامر مُضلّلة أو التحايل على الضمانات المُدمجة.
يتم استخدام أدوات الذكاء الاصطناعي التوليدية كروبوتات محادثة، ومن المتوقع أن تحل محل ليس فقط عمليات البحث على الإنترنت ولكن أيضًا خدمة العملاء ومكالمات المبيعات. |
على سبيل المثال، يمكن خداع روبوت المحادثة الذي يعمل بالذكاء الاصطناعي والمنتشر في أحد البنوك لإجراء معاملات غير مصرح بها إذا قام المتسللون بإعداد "التعليمات" الصحيحة.
لذا، عند الإشارة إلى الإصدارات التجريبية الأخيرة للذكاء الاصطناعي، يحذر المركز الوطني للأمن السيبراني من أن "المنظمات التي تبني خدمات حول برامج الماجستير في القانون تحتاج إلى توخي الحذر كما لو كانت تستخدم منتجًا جديدًا في مرحلة تجريبية".
وجدت دراسة استقصائية حديثة أجرتها رويترز/إبسوس أن العديد من موظفي الشركات يستخدمون أدوات مثل ChatGPT لأداء مهام أساسية مثل صياغة رسائل البريد الإلكتروني، أو تلخيص المستندات، أو جمع بيانات البحث الأولية.
ومن بين هؤلاء، قال حوالي 10% فقط من الموظفين إن رؤساءهم منعوا صراحة استخدام أدوات الذكاء الاصطناعي الخارجية، ولم يعرف 25% ما إذا كانت الشركة تسمح باستخدام هذه التكنولوجيا أم لا.
قال أوسيلوكا أوبيورا، كبير مسؤولي التكنولوجيا في شركة ريفر سيف للأمن، إن السباق نحو دمج الذكاء الاصطناعي في العمليات التجارية سيكون له "عواقب وخيمة" إذا لم يُجرِ قادة الأعمال الفحوصات اللازمة. وأضاف: "بدلاً من ملاحقة توجهات الذكاء الاصطناعي، ينبغي على القادة التفكير مليًا وإجراء تقييم للفوائد والمخاطر والإجراءات الأمنية اللازمة لحماية الأعمال".
الأخبار المزيفة والمتسللين
تسعى السلطات حول العالم أيضًا إلى تنظيم انتشار برامج الذكاء الاصطناعي التوليدي (LLM)، مثل ChatGPT من OpenAI. وتُعتبر المخاوف المتعلقة بأمن التقنيات الجديدة محورًا للسياسات، حيث اكتشفت الولايات المتحدة وكندا مؤخرًا المزيد من حالات استخدام القراصنة المتزايد للذكاء الاصطناعي التوليدي لارتكاب أعمال غير قانونية.
حتى أن أحد القراصنة قال إنه وجد برنامج ماجستير في القانون "مُدرَّبًا" على استخدام مواد خبيثة، وطلب منه بناء عملية احتيال لتحويل الأموال. استجاب الذكاء الاصطناعي بإنشاء بريد إلكتروني يطلب من المستلم دفع فاتورة عاجلة.
في يوليو 2023، لاحظ المركز الكندي للأمن السيبراني زيادةً في استخدام الذكاء الاصطناعي في "الاحتيال عبر البريد الإلكتروني، والبرمجيات الخبيثة، والتضليل، والتحريف". وأكد مدير المركز، سامي خوري، أن مجرمي الإنترنت يستغلون هذه التقنية الجديدة بنشاط.
وأضاف هذا القائد أيضًا أنه على الرغم من أن استخدام الذكاء الاصطناعي في إنشاء البرامج الضارة لا يزال في مراحله المبكرة فقط، فإن نماذج الذكاء الاصطناعي تتطور بسرعة كبيرة بحيث تؤدي بسهولة إلى النقطة التي يصبح من المستحيل فيها التحكم في مخاطرها الخبيثة.
في مارس 2023، أصدرت منظمة الشرطة الأوروبية (يوروبول) تقريرًا يفيد بأن برنامج ChatGPT قادر على "انتحال هويات المنظمات والأفراد بشكل واقعي للغاية حتى عند استخدام اللغة الإنجليزية البسيطة". وفي الشهر نفسه، أكد المركز الوطني للأمن السيبراني في المملكة المتحدة أن "برنامج LLM يمكن استخدامه لدعم الهجمات السيبرانية".
[إعلان 2]
مصدر
تعليق (0)