Enligt BGR står DeepSeek R1, en ny AI-modell från Kina, trots sin snabba popularitet och beröm för sin prestanda inför en våg av stark kritik från cybersäkerhetsgemenskapen.
DeepSeek R1 genererar mer skadligt innehåll än andra AI:er.
FOTO: SKÄRMBILD FRÅN WIRED
DeepSeek R1 tenderar att generera mer skadligt innehåll.
Enkrypt AI:s senaste forskning visar att R1 har en betydligt högre potential för att generera skadligt innehåll jämfört med konkurrenter som ChatGPT.
Mer specifikt visade det sig att R1 hade en partisk tendens, och genererade skadlig programvara, illvilligt språk, extremistiskt innehåll och till och med information relaterad till farliga kemiska och biologiska vapen. Oroväckande nog kan detta innehåll skapas utan några "jailbreak"-tekniker.
Några viktiga punkter från rapporten:
- R1 är tre gånger mer partisk mot Claude-3 Opus (Antropisk).
- R1 är fyra gånger mer sårbart för skadlig kod än o1 (OpenAI).
- R1 har 11 gånger högre potential att generera skadligt innehåll jämfört med o1.
Dessa risker väcker allvarliga frågor om säkerheten för DeepSeek R1, särskilt med tanke på dess utbredda användning. Användare bör vara försiktiga när de interagerar med R1 och överväga säkrare alternativ.
Dessutom är DeepSeek inblandat i flera andra kontroverser, såsom:
- Censur av innehåll som är känsligt för den kinesiska regeringen .
- Att skicka användardata till Kina väcker integritetsproblem.
- Att lagra användardata är inte säkert.
Även om DeepSeek kan komma att uppdateras för att förbättra säkerheten för R1, kommer det faktum att användare kan installera denna AI-version lokalt och att den inte uppdateras automatiskt att vara en stor utmaning. Framtiden för DeepSeek R1 är fortfarande ett stort frågetecken, särskilt eftersom säkerhets- och integritetsproblem inte har åtgärdats helt och hållet.
[annons_2]
Källa: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm






Kommentar (0)