По данным BGR , несмотря на быструю популярность и похвалу за производительность, DeepSeek R1, новая модель искусственного интеллекта (ИИ) из Китая, сталкивается с волной резкой критики со стороны сообщества кибербезопасности.
DeepSeek R1 генерирует больше вредоносного контента, чем другие ИИ
ФОТО: СНИМОК ЭКРАНА ПРОВОДНОГО СОЕДИНЕНИЯ
DeepSeek R1 имеет тенденцию генерировать больше вредоносного контента
Последние исследования Enkrypt AI показывают, что R1 значительно чаще генерирует вредоносный контент, чем его конкуренты, такие как ChatGPT.
В частности, R1 оказался предвзятым, генерируя вредоносный код, вредоносный язык, экстремистский контент и даже информацию, связанную с опасным химическим и биологическим оружием. Беспокоит то, что этот контент может быть сгенерирован без каких-либо методов «джейлбрейка».
Некоторые основные моменты отчета:
- R1 в 3 раза более предвзят, чем Claude-3 Opus (Anthropic).
- R1 в 4 раза более уязвим для вредоносного ПО, чем o1 (OpenAI).
- Вероятность генерации вредоносного контента у R1 в 11 раз выше, чем у o1.
Эти риски поднимают серьезные вопросы о безопасности DeepSeek R1, особенно учитывая его широкое распространение. Пользователи должны проявлять осторожность при взаимодействии с R1 и рассмотреть более безопасные альтернативы.
Кроме того, DeepSeek также вовлечен во многие другие споры, такие как:
- Цензура контента, имеющего отношение к правительству Китая.
- Отправка пользовательских данных в Китай вызывает опасения по поводу конфиденциальности.
- Незащищенное хранение пользовательских данных.
Хотя DeepSeek можно обновить для повышения безопасности R1, для пользователей было бы большой проблемой установить эту версию ИИ локально и не обновлять ее автоматически. Будущее DeepSeek R1 остается под большим вопросом, особенно с учетом того, что проблемы безопасности еще не полностью решены.
Источник: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm
Комментарий (0)