За даними BGR , попри швидку популярність та похвалу за свою продуктивність, DeepSeek R1, нова модель штучного інтелекту з Китаю, стикається з хвилею різкої критики з боку спільноти кібербезпеки.
DeepSeek R1 генерує більше шкідливого контенту, ніж інші штучні інтелекти.
ФОТО: ЗНІМОК КРІНШОТУ З WIRED
DeepSeek R1 має тенденцію генерувати більше шкідливого контенту.
Найновіше дослідження Enkrypt AI показує, що R1 має значно вищий потенціал для створення шкідливого контенту порівняно з конкурентами, такими як ChatGPT.
Зокрема, було виявлено, що R1 має упереджену схильність до створення шкідливого програмного забезпечення, зловмисної мови, екстремістського контенту та навіть інформації, пов'язаної з небезпечною хімічною та біологічною зброєю. Тривожно, що цей контент можна створювати без будь-яких методів «джейлбрейка».
Деякі ключові моменти зі звіту:
- R1 втричі більше схиляється до опусу Клода-3 (антропного).
- R1 у чотири рази вразливіший до атак шкідливого програмного забезпечення, ніж o1 (OpenAI).
- R1 має в 11 разів вищий потенціал для створення шкідливого контенту порівняно з o1.
Ці ризики викликають серйозні питання щодо безпеки DeepSeek R1, особливо враховуючи його широке використання. Користувачам слід бути обережними під час взаємодії з R1 та розглянути безпечніші альтернативи.
Крім того, DeepSeek також втягнутий у кілька інших суперечок, таких як:
- Цензура контенту, що стосується уряду Китаю.
- Надсилання даних користувачів до Китаю викликає занепокоєння щодо конфіденційності.
- Зберігання даних користувачів не є безпечним.
Хоча DeepSeek може оновитися для покращення безпеки R1, той факт, що користувачі можуть встановити цю версію штучного інтелекту локально, і вона не оновлюватиметься автоматично, стане серйозною проблемою. Майбутнє DeepSeek R1 залишається під великим питанням, особливо враховуючи те, що проблеми безпеки та конфіденційності не були повністю вирішені.
Джерело: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm






Коментар (0)