Vietnam.vn - Nền tảng quảng bá Việt Nam

تحتاج الشركات إلى تقييم المخاطر الأمنية عند دمج أدوات روبوت المحادثة بالذكاء الاصطناعي

VietNamNetVietNamNet03/09/2023

[إعلان 1]

حذرت وكالة الأمن السيبراني في المملكة المتحدة المنظمات التي تقوم بدمج روبوتات الدردشة التي تعمل بالذكاء الاصطناعي في منتجاتها وخدماتها، قائلة إن الأبحاث تُظهر أنه يمكن التلاعب بأدوات الذكاء الاصطناعي بسهولة لأداء مهام ضارة.

في منشور على مدونته في 30 أغسطس، قال مركز الأمن السيبراني في المملكة المتحدة (NCSC) إن الخبراء لم يدركوا بعد مشكلات الأمن السيبراني المحتملة المرتبطة بالخوارزميات التي يمكن أن تتفاعل "مثل البشر"، وهي نماذج اللغة الكبيرة (LLMs).

وقال المركز الوطني للأمن الإلكتروني إن هذا الأمر يحمل مخاطر عندما يتم إدخال مثل هذه النماذج في العمليات التجارية للمؤسسة. وقد نجح العلماء والباحثون مؤخرًا في إيجاد طرق "لخداع" الذكاء الاصطناعي، وتوجيه روبوتات الدردشة لارتكاب عمليات احتيال أو اختراق حواجز الحماية المدمجة.

يتم استخدام أدوات الذكاء الاصطناعي التوليدية كروبوتات محادثة، ومن المتوقع أن تحل محل ليس فقط عمليات البحث على الإنترنت ولكن أيضًا خدمة العملاء ومكالمات المبيعات.

على سبيل المثال، يمكن خداع روبوت المحادثة الذي يعمل بالذكاء الاصطناعي والمستخدم في أحد البنوك لإجراء معاملة غير مصرح بها إذا أعطى المخترق "التعليمات" الصحيحة.

وقال المركز الوطني للأمن السيبراني: "إن المنظمات التي تبني خدمات حول برامج الماجستير في القانون تحتاج إلى توخي الحذر من حيث أنها تستخدم منتجًا جديدًا في مرحلة تجريبية"، في إشارة إلى إصدارات الذكاء الاصطناعي الأخيرة.

أظهر استطلاع رأي حديث أجرته رويترز/إبسوس أن العديد من موظفي الشركات يستخدمون أدوات مثل ChatGPT لأداء مهام أساسية مثل صياغة رسائل البريد الإلكتروني وتلخيص المستندات وجمع بيانات البحث الأولية.

ومن بين هؤلاء، قال 10% فقط من الموظفين إن رؤساءهم منعوا صراحة استخدام أدوات الذكاء الاصطناعي الخارجية، ولم يعرف 25% ما إذا كانت شركتهم تسمح باستخدام هذه التكنولوجيا.

وقال أوسيلوكا أوبيورا، كبير مسؤولي التكنولوجيا في شركة الأمن RiverSafe، إن السباق نحو دمج الذكاء الاصطناعي في نماذج الأعمال سيكون له "عواقب كارثية" إذا فشل قادة الأعمال في إجراء الفحوصات اللازمة. "بدلاً من القفز على عربة الذكاء الاصطناعي، ينبغي على كبار المديرين التنفيذيين التفكير بعناية وإجراء تقييم للفوائد والمخاطر، بالإضافة إلى التدابير الأمنية اللازمة لحماية الأعمال."

الأخبار المزيفة والمتسللين

وفي جميع أنحاء العالم ، تتطلع الحكومات أيضًا إلى تنظيم صعود برامج الماجستير في القانون مثل ChatGPT من OpenAI. وتركز السياسات أيضًا على المخاوف بشأن أمن التكنولوجيا الجديدة، حيث أعلنت الولايات المتحدة وكندا مؤخرًا أنهما اكتشفتا زيادة في إساءة استخدام القراصنة للذكاء الاصطناعي التوليدي.

وقال أحد المتسللين إنه عثر على طالب ماجستير في القانون "تم تدريبه" على مستندات خبيثة وحاول أن يطلب منه بناء عملية احتيال لتحويل الأموال. وردًا على ذلك، قامت الذكاء الاصطناعي بإنشاء بريد إلكتروني مكون من ثلاث فقرات يطلب من المتلقي دفع فاتورة عاجلة.

في يوليو 2023، لاحظ مركز الأمن السيبراني الكندي زيادة في استخدام الذكاء الاصطناعي في "الاحتيال عبر البريد الإلكتروني والبرامج الضارة والمعلومات المضللة والمعلومات المضللة". ولم يقدم سامي خوري مدير المركز أدلة مفصلة، ​​لكنه أكد أن مجرمي الإنترنت يستغلون هذه التكنولوجيا الناشئة بشكل نشط.

وأضاف الزعيم أيضًا أنه على الرغم من أن استخدام الذكاء الاصطناعي لصياغة البرامج الضارة لا يزال في مراحله الأولى، فإن نماذج الذكاء الاصطناعي تتطور بسرعة كبيرة بحيث يصبح من السهل فقدان السيطرة على مخاطرها الخبيثة.

في وقت سابق، في مارس 2023، نشرت منظمة الشرطة الأوروبية يوروبول تقريرًا يقول إن ChatGPT يمكنه "انتحال شخصية المنظمات والأفراد بطريقة واقعية للغاية حتى عند استخدام اللغة الإنجليزية الأساسية فقط". وفي الشهر نفسه، قال المركز الوطني للأمن السيبراني في المملكة المتحدة إن "برنامج LLM يمكن استخدامه لدعم الهجمات السيبرانية".

(بحسب رويترز)


[إعلان 2]
مصدر

تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

كات با - سيمفونية الصيف
ابحث عن الشمال الغربي الخاص بك
استمتع بـ "بوابة الجنة" لبو لونج - ثانه هوا
مراسم رفع العلم في جنازة الدولة للرئيس السابق تران دوك لونغ تحت المطر

نفس المؤلف

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج