● يمكن السيطرة على المخاطر إذا نفذت الشركات التدابير الأمنية المناسبة.
● قامت شركة Team8، وهي شركة أمن سيبراني من إسرائيل، بصياغة تقرير حول هذه القضية بالاعتماد على تعليقات من مديري أمن المعلومات في العديد من الشركات.
الصورة: جابي جونز/بلومبرج.
قالت شركة Team8، وهي شركة إسرائيلية للأمن السيبراني، في تقرير إن الشركات التي تستخدم حاليًا بعض تطبيقات الذكاء الاصطناعي مثل ChatGPT من المرجح أن تواجه خطر الكشف عن معلومات العملاء السرية وأسرارهم التجارية.
أفاد التقرير، الذي قُدِّم إلى بلومبرج نيوز قبل نشره، بأن الاستخدام المتزايد للذكاء الاصطناعي في برامج الدردشة الآلية ومحررات النصوص قد يُعرِّض العديد من الشركات لاختراقات البيانات والدعاوى القضائية. وأثار التقرير مخاوف من إمكانية استخدام المتسللين لبرامج الدردشة الآلية لاستخراج معلومات حساسة من الشركة أو القيام بأنشطة ضارة أخرى ضدها. كما توجد مخاوف من إمكانية استخدام شركات الذكاء الاصطناعي للمعلومات السرية المُقدَّمة حاليًا لبرامج الدردشة الآلية في المستقبل.
تتسابق العديد من شركات التكنولوجيا الكبرى، مثل مايكروسوفت وألفابت، لدمج الذكاء الاصطناعي لتحسين روبوتات الدردشة ومحركات البحث، حيث تُدرّب نماذج الذكاء الاصطناعي الخاصة بها على مجموعات بيانات مُستخرجة من الإنترنت لتزويد المستخدمين بأداة متعددة الوظائف تُجيب على أي سؤال يطرحونه. ووفقًا للتقرير، إذا زُوِّدت هذه التطبيقات ببيانات سرية أو خاصة، فسيكون من الصعب للغاية حذف هذه المعلومات.
ذكر التقرير أن "تطبيق الذكاء الاصطناعي في بيئة المؤسسات قد يؤدي إلى مخاطر استغلال ومعالجة المعلومات الحساسة، والملكية الفكرية، وشفرات المصدر، والأسرار التجارية، وغيرها من البيانات، من خلال البيانات الواردة مباشرةً من المستخدمين أو عبر واجهات برمجة التطبيقات، بما في ذلك خصوصية المستخدم والمعلومات السرية". وصنف التقرير هذه المخاطر بأنها "عالية"، مؤكدًا أنها "قابلة للإدارة" إذا اتُخذت تدابير الأمن السيبراني المناسبة.
ويؤكد تقرير Team8 أن مدخلات برامج المحادثة الآلية لا يتم تقديمها للشركات لتدريب الذكاء الاصطناعي، على عكس التقارير الأخيرة التي تفيد بأنه يمكن للآخرين قراءة المدخلات.
حتى كتابة هذه السطور، لا تستطيع نماذج الذكاء الاصطناعي المُدرَّبة على بيانات لغوية واسعة النطاق تحديث نفسها آنيًا، وبالتالي لا يمكنها استخدام مُدخلات من شخص للرد على شخص آخر، لذا لا داعي للقلق بشأن هذا الاحتمال. مع ذلك، لن تتمتع الإصدارات المستقبلية من هذه النماذج بالضرورة بخصائص مُماثلة.
كما صنّف التقرير ثلاث مشكلات أخرى تتعلق بتكامل الذكاء الاصطناعي على أنها "عالية الخطورة"، وسلط الضوء على التهديد المتزايد لمشاركة المعلومات مع تطبيقات الجهات الخارجية. وقد دمجت مايكروسوفت العديد من ميزات روبوتات الدردشة في محرك بحثها بينج وحزمة برامج مايكروسوفت 365.
"على سبيل المثال، من جانب المستخدم، يمكن اختراق تطبيقات الطرف الثالث التي تستفيد من واجهات برمجة التطبيقات الخاصة بنماذج الذكاء الاصطناعي ومنحها حق الوصول إلى البريد الإلكتروني ومتصفح الويب الخاص بالمستخدم، مما يسمح للمتسلل بأداء أنشطة نيابة عن هذا المستخدم."
وقيم التقرير أيضًا "خطرًا متوسطًا" يتمثل في أن استخدام الذكاء الاصطناعي قد يؤدي إلى زيادة التمييز أو الإضرار بسمعة الشركة أو تعريضها لإجراءات قانونية حول قضايا حقوق النشر.
ساهمت آن جونسون، نائبة رئيس شركة مايكروسوفت، في إعداد التقرير. استثمرت مايكروسوفت مليارات الدولارات في شركة OpenAI، الشركة التي طورت تطبيق ChatGPT.
وقال متحدث باسم مايكروسوفت: "تشجع مايكروسوفت المناقشة الشفافة حول المخاطر السيبرانية المتطورة داخل مجتمعات الأمن السيبراني والذكاء الاصطناعي".
ساهم في إعداد التقرير عدد من كبار مسؤولي أمن المعلومات من عدد من الشركات الأمريكية. كما أيد مايكل روجرز، الرئيس السابق لوكالة الأمن القومي الأمريكية وقيادة الأمن السيبراني الأمريكية، تقرير فريق Team8.
نجوين كوانج مينه (وفقًا لبلومبرج)
[إعلان 2]
مصدر
تعليق (0)