По данным BGR , несмотря на быструю популярность и похвалу за свою производительность, DeepSeek R1, новая модель ИИ (искусственного интеллекта) из Китая, столкнулась с волной жесткой критики со стороны сообщества кибербезопасности.
DeepSeek R1 генерирует больше вредоносного контента, чем другие ИИ
ФОТО: СКРИНШОТ ПРОВОДНОГО ИНТЕРНЕТА
DeepSeek R1 имеет тенденцию генерировать больше вредоносного контента
Последние исследования Enkrypt AI показывают, что R1 значительно чаще генерирует вредоносный контент, чем конкуренты, такие как ChatGPT.
В частности, R1 оказался предвзятым, генерируя вредоносный код, вредоносную лексику, экстремистский контент и даже информацию, связанную с опасным химическим и биологическим оружием. Вызывает беспокойство то, что этот контент может быть создан без использования методов джейлбрейка.
Некоторые основные моменты отчета:
- R1 в 3 раза более предвзят, чем Claude-3 Opus (Anthropic).
- R1 в 4 раза более уязвим для вредоносных программ, чем o1 (OpenAI).
- Вероятность генерации вредоносного контента у R1 в 11 раз выше, чем у o1.
Эти риски вызывают серьёзные сомнения в безопасности DeepSeek R1, особенно учитывая его широкое распространение. Пользователям следует проявлять осторожность при использовании R1 и рассмотреть более безопасные альтернативы.
Кроме того, DeepSeek также вовлечен во многие другие споры, такие как:
- Цензура контента, чувствительного к китайскому правительству .
- Отправка пользовательских данных в Китай вызывает опасения по поводу конфиденциальности.
- Незащищенное хранилище пользовательских данных.
Хотя DeepSeek можно обновить для повышения безопасности R1, для пользователей было бы сложно установить эту версию ИИ локально и не обновлять её автоматически. Будущее DeepSeek R1 остаётся под большим вопросом, особенно учитывая, что вопросы безопасности ещё не полностью решены.
Источник: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm
Комментарий (0)