يقول فريق من الباحثين إنهم تمكنوا من جعل ChatGPT يكشف عن بعض البيانات عن طريق إخبار الذكاء الاصطناعي بتكرار الكلمات العشوائية.
ودعا باحثون في جوجل ديب مايند، وجامعة واشنطن، وجامعة كورنيل، وجامعة كارنيجي ميلون، وجامعة كاليفورنيا بيركلي، والمعهد الفيدرالي السويسري للتكنولوجيا في زيورخ، شركات الذكاء الاصطناعي إلى اختبار منتجاتها بشكل شامل، بدءاً من نماذج اللغة الكبيرة إلى التكنولوجيا الأساسية التي تدعم خدمات الذكاء الاصطناعي مثل برامج الدردشة ومولدات الصور، قبل إطلاقها رسمياً.
جاء التحذير بعد أن طلب الباحثون من ChatGPT تكرار كلمة "قصيدة" بشكل لا نهائي. استجاب ChatGPT للطلب، لكنه بدأ بعد ذلك بالكشف عن البريد الإلكتروني ورقم الهاتف الحقيقيين للرئيس التنفيذي والمؤسس المشارك لشركة OpenAI. عند اختباره باستخدام كلمة "شركة"، عرض روبوت الدردشة البريد الإلكتروني ورقم الهاتف لمكتب محاماة عشوائي.
شعار ChatGPT معروض على هاتف ذكي. الصورة: رويترز
باستخدام كلمات مفتاحية أخرى، تمكنوا أيضًا من جعل ChatGPT يكشف عن عناوين بيتكوين، وأرقام فاكس، وأسماء، وتواريخ ميلاد، وحسابات على مواقع التواصل الاجتماعي، ومقتطفات من أوراق بحثية محمية بحقوق الطبع والنشر، أو مقالات مدفوعة من CNN . وقد كلف الفريق 200 دولار فقط لتوليد 10,000 مثال من المعلومات والبيانات الشخصية.
وقال الفريق إنهم فوجئوا، ووصفوا ثغرة ChatGPT بأنها "غبية حقًا" وقالوا إنه كان ينبغي اكتشافها في وقت أقرب.
تم الإبلاغ عن الثغرة الأمنية إلى OpenAI وتم تصحيحها في 30 أغسطس. ومع ذلك، في الاختبار الجديد لـ Engadget ، عند مطالبة ChatGPT بتكرار كلمة الرد بلا نهاية، تلقى الموقع التقني بعد ذلك اسم شخص ما ومعرف Skype.
ولم تعلق شركة OpenAI حتى الآن.
تعتمد أنظمة الذكاء الاصطناعي التوليدي ، مثل ChatGPT أو مُولّد Dall-E لتحويل النصوص إلى صور، على نماذج لغوية ضخمة وخوارزميات تعلّم آلي، مُدرّبة على كميات هائلة من البيانات دون موافقة المستخدم. لم تُفصح OpenAI عن البيانات التي يُدرّب عليها ChatGPT لأن نموذج اللغة الضخم الذي يُشغّله مغلق المصدر.
وفقًا لـ Huy Duc - VnExpress
مصدر
تعليق (0)