ميزة مشاركة الدردشة عبر رابط عام على ChatGPT - صورة: Techradar
يصل ChatGPT الآن إلى ما يزيد عن 2.5 مليار استعلام من المستخدمين العالميين كل يوم، مما يدل على الشعبية المتزايدة لهذا الروبوت المحادثة.
لكن هذه الأداة تواجه انتقادات شديدة من جانب المستخدمين، إذ تسببت ميزة "المشاركة" في تسريب معلومات حساسة من آلاف المحادثات إلى جوجل والعديد من محركات البحث على الإنترنت.
مخاطر أمنية عالية
وصرح السيد فو نغوك سون - رئيس قسم التكنولوجيا في الجمعية الوطنية للأمن السيبراني (NCA) - بأن الحادث المذكور أعلاه يُظهر مستوى عالٍ من المخاطر الأمنية لمستخدمي ChatGPT.
"الحادثة المذكورة أعلاه ليست بالضرورة عيبًا فنيًا، إذ إن هناك بادرة من المستخدم بالنقر على زر المشاركة. ومع ذلك، يمكن القول إن المشكلة تكمن في تصميم منتج روبوت الدردشة الذكي، إذ إنه أربك المستخدمين، ولم تكن هناك إجراءات تحذيرية كافية بشأن خطر تسريب البيانات الشخصية في حال مشاركة المستخدمين لها"، هذا ما حللّه السيد فو نغوك سون.
في ChatGPT، يتم تنفيذ هذه الميزة بعد أن يختار المستخدم مشاركة الدردشة عبر رابط عام، وسيتم تخزين المحتوى على خادم OpenAI كموقع ويب عام (chatgpt.com/share/...)، ولا يلزم تسجيل الدخول أو كلمة المرور للوصول.
تعمل أدوات الزحف الخاصة بـ Google تلقائيًا على مسح هذه الصفحات وفهرستها، مما يجعلها تظهر في نتائج البحث، بما في ذلك النصوص والصور أو بيانات الدردشة الحساسة.
لم يكن العديد من المستخدمين على دراية بالخطر، ظانّين أنهم يتبادلون المحادثات مع أصدقائهم أو جهات اتصالهم. أدى ذلك إلى كشف آلاف المحادثات، بعضها يحتوي على معلومات شخصية حساسة.
على الرغم من أن OpenAI أزالت هذه الميزة بسرعة في أواخر يوليو 2025 بعد ردود فعل غاضبة من المجتمع، إلا أن الأمر استغرق بعض الوقت للتنسيق مع جوجل لإزالة الفهارس القديمة. وخصوصًا مع نظام التخزين المعقد، الذي يتضمن خوادم التخزين المؤقت من جوجل، لا يمكن إنجاز ذلك بسرعة.
لا تعامل روبوتات الدردشة التي تعمل بالذكاء الاصطناعي باعتبارها "صندوقًا أسودًا آمنًا"
خبير أمن البيانات فو نغوك سون - رئيس قسم التكنولوجيا في الرابطة الوطنية للأمن السيبراني (NCA) - الصورة: CHI HIEU
إن تسريب آلاف الدردشات قد يشكل مخاطر على المستخدمين مثل الكشف عن الأسرار الشخصية أو أسرار العمل؛ والإضرار بالسمعة أو المخاطر المالية أو حتى المخاطر الأمنية عند الكشف عن عناوين المنازل.
"تعد برامج المحادثة المدعومة بالذكاء الاصطناعي مفيدة ولكنها ليست "صندوقًا أسود"، حيث يمكن أن تظل البيانات المشتركة موجودة على الويب إلى الأبد إذا تركت دون مراقبة.
تُعدّ هذه الحادثة درسًا لكلٍّ من مُقدّمي الخدمات والمستخدمين. ويمكن لمُقدّمي خدمات الذكاء الاصطناعي الآخرين التعلّم من هذه التجربة وتصميم ميزات بتحذيرات أوضح وأكثر شفافية.
وفي الوقت نفسه، يحتاج المستخدمون أيضًا إلى الحد بشكل استباقي من النشر غير المنضبط للمعلومات الشخصية أو السرية على منصات الذكاء الاصطناعي،" أوصى خبير الأمن فو نغوك سون.
وفقًا لخبراء أمن البيانات، تُظهر هذه الحادثة الحاجة إلى ممرات قانونية ومعايير أمن سيبراني للذكاء الاصطناعي. كما يتعين على موردي ومطوري الذكاء الاصطناعي تصميم أنظمة تضمن الأمان، وتتجنب مخاطر تسرب البيانات، مثل: التسرب من خلال ثغرات أمنية خطيرة؛ وثغرات البرامج التي تؤدي إلى هجمات على قواعد البيانات؛ وضعف الرقابة الذي يؤدي إلى التسريب وإساءة استخدام المعلومات للإجابة على أسئلة مضللة ومشوهة.
يجب على المستخدمين أيضًا التحكم في مشاركة معلوماتهم الشخصية باستخدام الذكاء الاصطناعي، وتجنب مشاركة المعلومات الحساسة. في الحالات الضرورية، يُنصح باستخدام وضع عدم الكشف عن الهوية أو تشفير المعلومات بشكل نشط لتجنب ربط البيانات مباشرةً بأشخاص محددين.
المصدر: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
تعليق (0)