أحدث الذكاء الاصطناعي، مثل ChatGPT، ضجة عالمية منذ أوائل عام ٢٠٢٣، إلا أنه لا يُستخدم دائمًا لأغراض إيجابية. مؤخرًا، اكتشف خبير أمني طريقةً لطلب ChatGPT لإنشاء شيفرة برمجية خبيثة أثناء الاختبار.
شارك آرون مولجرو، خبير الأمن في فورس بوينت، مخاطر كتابة برمجيات خبيثة باستخدام روبوت محادثة لغوي طورته شركة OpenAI. على الرغم من أن ChatGPT صُمم لمنع المستخدمين من طلب تصميم برمجيات خبيثة من الذكاء الاصطناعي، إلا أن آرون وجد ثغرة أمنية من خلال إنشاء أسطر أوامر (موجهة) للذكاء الاصطناعي لكتابة شيفرة برمجية على كل سطر على حدة. عند دمج هذه الأدوات، أدرك آرون أنه يمتلك أداة لتنفيذ سرقة البيانات غير قابلة للكشف، متطورة لدرجة أنها تُضاهي البرمجيات الخبيثة الرئيسية اليوم.
يمكن أن يتحول كل سطر أوامر فردي تم إنشاؤه بواسطة ChatGPT، عند دمجه، إلى برنامج ضار متطور.
ويعد اكتشاف مولجرو بمثابة تحذير بشأن إمكانية استخدام الذكاء الاصطناعي لإنشاء برامج ضارة خطيرة دون الحاجة إلى مجموعة من المتسللين أو حتى قيام منشئ الأداة بكتابة سطر واحد من التعليمات البرمجية.
برنامج مولجرو مُتخفٍّ كتطبيق شاشة توقف، ولكنه قادر على التفعيل تلقائيًا على أجهزة ويندوز. بمجرد دخوله إلى نظام التشغيل، يتسلل البرنامج الخبيث إلى جميع الملفات، بما في ذلك برامج تحرير مستندات وورد، وملفات الصور، وملفات PDF، باحثًا عن البيانات لسرقتها.
بمجرد حصوله على ما يحتاجه، يُحلل البرنامج المعلومات ويربطها بملفات صور على الجهاز. لتجنب الكشف، تُرفع الصور إلى مجلد على خدمة التخزين السحابي جوجل درايف. تكمن قوة هذا البرنامج الخبيث في قدرته على تعديل وتحسين ميزاته لتجنب الكشف من خلال أوامر بسيطة تُدخل في ChatGPT.
على الرغم من أن هذا الاختبار كان خاصًا بخبراء الأمن ولم تُنفذ أي هجمات خارج نطاق الاختبار، إلا أن مجتمع الأمن السيبراني لا يزال يُدرك مخاطر الأنشطة التي تستخدم ChatGPT. يزعم مولجرو أنه لا يمتلك خبرة واسعة في البرمجة، إلا أن الذكاء الاصطناعي لشركة OpenAI لا يزال يفتقر إلى القوة والذكاء الكافيين لمنع اختباره.
[إعلان 2]
رابط المصدر
تعليق (0)