أحدث الذكاء الاصطناعي، مثل ChatGPT، ضجة عالمية منذ أوائل عام ٢٠٢٣، إلا أنه لا يُستخدم دائمًا لأغراض إيجابية. مؤخرًا، اكتشف خبير أمني طريقةً لطلب ChatGPT لإنشاء شيفرة خبيثة أثناء الاختبار.
شارك آرون مولجرو، خبير الأمن في فورس بوينت، مخاطر كتابة برامج ضارة باستخدام روبوت المحادثة اللغوي من OpenAI. على الرغم من أن ChatGPT صُمم لمنع المستخدمين من طلب تصميم برامج ضارة من الذكاء الاصطناعي، إلا أن آرون وجد ثغرة أمنية بإنشاء أوامر للذكاء الاصطناعي لكتابة شيفرة برمجية سطرًا بسطر. عند دمج هذه الأدوات، أدرك آرون أنه يمتلك أداة لتنفيذ سرقة البيانات غير قابلة للكشف، متطورة للغاية لدرجة أنها تُضاهي أكثر البرامج الضارة تطورًا اليوم.
يمكن أن يتحول كل سطر أوامر فردي تم إنشاؤه بواسطة ChatGPT، عند دمجه، إلى برنامج ضار متطور.
ويعد اكتشاف مولجرو بمثابة جرس إنذار بشأن إمكانية استخدام الذكاء الاصطناعي لإنشاء برامج ضارة خطيرة دون الحاجة إلى مجموعة من القراصنة، أو حتى قيام منشئ الأداة بكتابة سطر واحد من التعليمات البرمجية.
برنامج مولجرو مُتخفٍّ كتطبيق شاشة توقف، ولكنه قادر على التفعيل تلقائيًا على أجهزة ويندوز. بمجرد دخوله إلى نظام التشغيل، يتسلل البرنامج الخبيث إلى جميع الملفات، بما في ذلك برامج تحرير النصوص وورد، وملفات الصور، وملفات PDF، باحثًا عن البيانات لسرقتها.
بمجرد حصوله على ما يحتاجه، يُحلل البرنامج المعلومات ويربطها بملفات صور على الجهاز. لتجنب الكشف، تُرفع الصور إلى مجلد على جوجل درايف. تكمن قوة هذا البرنامج الخبيث في قدرته على تعديل وتحسين ميزاته لتجنب الكشف من خلال أوامر بسيطة تُدخل في ChatGPT.
على الرغم من أن هذا الاختبار كان خاصًا بخبراء الأمن ولم تُنفذ أي هجمات خارج نطاق الاختبار، إلا أن مجتمع الأمن السيبراني لا يزال يُدرك خطورة الأنشطة التي تستخدم ChatGPT. يزعم مولجرو أنه لا يمتلك خبرة واسعة في البرمجة، إلا أن الذكاء الاصطناعي لشركة OpenAI لا يزال يفتقر إلى القوة والذكاء الكافيين لمنع اختباره.
[إعلان 2]
رابط المصدر
تعليق (0)