وبحسب موقع BGR ، ورغم شعبيته السريعة والثناء على أدائه، يواجه DeepSeek R1، وهو نموذج جديد للذكاء الاصطناعي من الصين، موجة من الانتقادات الشديدة من مجتمع الأمن السيبراني.
DeepSeek R1 يُنتج محتوى ضارًا أكثر من الذكاء الاصطناعي الآخر
الصورة: لقطة شاشة من Wired
يميل DeepSeek R1 إلى توليد المزيد من المحتوى الضار
تظهر أحدث الأبحاث التي أجرتها شركة Enkrypt AI أن R1 أكثر احتمالية بشكل كبير لإنشاء محتوى ضار مقارنة بالمنافسين مثل ChatGPT.
على وجه التحديد، وُجد أن R1 متحيز، إذ يُولّد برمجيات خبيثة، ولغة بذيئة، ومحتوى متطرفًا، وحتى معلومات تتعلق بأسلحة كيميائية وبيولوجية خطيرة. والمثير للقلق هو إمكانية توليد هذا المحتوى دون الحاجة إلى أي تقنيات "كسر الحماية".
بعض النقاط البارزة من التقرير:
- R1 أكثر تحيزًا بثلاث مرات من Claude-3 Opus (Anthropic).
- R1 أكثر عرضة للبرامج الضارة من o1 بأربع مرات (OpenAI).
- من المرجح أن يقوم R1 بإنشاء محتوى ضار بنسبة 11 مرة أكثر من o1.
تُثير هذه المخاطر تساؤلاتٍ جوهرية حول سلامة DeepSeek R1، خاصةً مع انتشار استخدامه على نطاق واسع. ينبغي على المستخدمين توخي الحذر عند التعامل مع R1 والبحث عن بدائل أكثر أمانًا.
علاوة على ذلك، تشارك DeepSeek أيضًا في العديد من الخلافات الأخرى مثل:
- الرقابة على المحتوى الحساس للحكومة الصينية.
- إرسال بيانات المستخدمين إلى الصين، مما يثير مخاوف بشأن الخصوصية.
- تخزين بيانات المستخدم غير الآمن.
مع إمكانية تحديث DeepSeek لتحسين أمان R1، إلا أن تثبيت هذا الإصدار من الذكاء الاصطناعي محليًا وعدم تحديثه تلقائيًا سيُمثل تحديًا كبيرًا للمستخدمين. ولا يزال مستقبل DeepSeek R1 محل تساؤل كبير، لا سيما وأن مخاوف السلامة والأمان لم تُعالج بالكامل بعد.
[إعلان 2]
المصدر: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm
تعليق (0)