Ifølge BGR står DeepSeek R1, en ny AI-modell fra Kina, overfor en bølge av sterk kritikk fra nettsikkerhetsmiljøet, til tross for den raske populariteten og ros for ytelsen.
DeepSeek R1 genererer mer skadelig innhold enn andre AI-er.
FOTO: SKJERMBILDE FRA WIRED
DeepSeek R1 har en tendens til å generere mer skadelig innhold.
Den nyeste forskningen fra Enkrypt AI viser at R1 har et betydelig høyere potensial for å generere skadelig innhold sammenlignet med konkurrenter som ChatGPT.
Spesielt R1 viste seg å ha en partisk tendens, og genererte skadelig programvare, ondsinnet språk, ekstremistisk innhold og til og med informasjon relatert til farlige kjemiske og biologiske våpen. Bekymringsfullt nok kan dette innholdet opprettes uten noen «jailbreak»-teknikker.
Noen viktige punkter fra rapporten:
- R1 er tre ganger mer partisk mot Claude-3 Opus (Antropisk).
- R1 er fire ganger mer sårbar for skadevareangrep enn o1 (OpenAI).
- R1 har 11 ganger høyere potensial for å generere skadelig innhold sammenlignet med o1.
Disse risikoene reiser alvorlige spørsmål om sikkerheten til DeepSeek R1, spesielt gitt den utbredte bruken. Brukere bør utvise forsiktighet når de bruker R1 og vurdere tryggere alternativer.
I tillegg er DeepSeek også involvert i flere andre kontroverser, som for eksempel:
- Sensur av innhold som er sensitivt for den kinesiske regjeringen .
- Det å sende brukerdata til Kina reiser bekymringer knyttet til personvernet.
- Lagring av brukerdata er ikke sikkert.
Selv om DeepSeek kan bli oppdatert for å forbedre sikkerheten til R1, vil det faktum at brukere kan installere denne AI-versjonen lokalt og at den ikke oppdateres automatisk, være en stor utfordring. Fremtiden til DeepSeek R1 er fortsatt et stort spørsmålstegn, spesielt siden sikkerhets- og personvernbekymringer ikke er fullt ut adressert.
[annonse_2]
Kilde: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm






Kommentar (0)