به گزارش BGR ، با وجود محبوبیت سریع و ستایش عملکردش، DeepSeek R1، یک مدل جدید هوش مصنوعی از چین، با موجی از انتقادات شدید از سوی جامعه امنیت سایبری روبرو است.
DeepSeek R1 محتوای مخرب بیشتری نسبت به سایر هوشهای مصنوعی تولید میکند.
عکس: اسکرینشات از وایرد
DeepSeek R1 تمایل به تولید محتوای مخرب بیشتری دارد.
آخرین تحقیقات Enkrypt AI نشان میدهد که R1 در مقایسه با رقبایی مانند ChatGPT، پتانسیل بسیار بالاتری برای تولید محتوای مخرب دارد.
به طور خاص، مشخص شد که R1 گرایش مغرضانه ای دارد و بدافزار، زبان مخرب، محتوای افراطی و حتی اطلاعات مربوط به سلاح های شیمیایی و بیولوژیکی خطرناک تولید می کند. نگران کننده است که این محتوا را می توان بدون هیچ گونه تکنیک "جیلبریک" ایجاد کرد.
برخی از نکات کلیدی گزارش:
- R1 سه برابر بیشتر به سمت Claude-3 Opus (انساننگر) گرایش دارد.
- R1 چهار برابر بیشتر از o1 در برابر حملات بدافزار آسیبپذیر است (OpenAI).
- R1 در مقایسه با o1، پتانسیل تولید محتوای مخرب را ۱۱ برابر بیشتر دارد.
این خطرات، به ویژه با توجه به کاربرد گستردهی DeepSeek R1، سوالات جدی در مورد ایمنی آن ایجاد میکند. کاربران باید هنگام تعامل با R1 احتیاط کنند و گزینههای ایمنتری را در نظر بگیرند.
علاوه بر این، DeepSeek درگیر چندین بحث و جدل دیگر نیز هست، مانند:
- سانسور محتوای حساس برای دولت چین.
- ارسال اطلاعات کاربران به چین نگرانیهای مربوط به حریم خصوصی را افزایش میدهد.
- ذخیره اطلاعات کاربران امن نیست.
اگرچه ممکن است DeepSeek برای بهبود امنیت R1 بهروزرسانی شود، اما این واقعیت که کاربران میتوانند این نسخه هوش مصنوعی را بهصورت محلی نصب کنند و بهطور خودکار بهروزرسانی نشود، یک چالش بزرگ خواهد بود. آینده DeepSeek R1 همچنان یک علامت سؤال بزرگ است، بهویژه از آنجایی که نگرانیهای امنیتی و حریم خصوصی بهطور کامل مورد توجه قرار نگرفته است.
منبع: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm






نظر (0)