Deepseek R1's 100% angrebssucces, som rapporteret af Cisco -forskere, fremhæver dens sårbarhed over for modstridende angreb sammenlignet med andre fremtrædende AI -modeller. Denne sårbarhed angår især, fordi den indikerer, at DeepSeek R1 ikke kunne blokere nogen af de 50 skadelige prompter, der er testet fra Harmbench -datasættet, som inkluderer kategorier som cyberkriminalitet, forkert information og ulovlige aktiviteter [1] [5] [9].
I modsætning hertil har andre AI -modeller vist bedre modstandsdygtighed mod sådanne angreb. For eksempel viste Openais O1 -model en signifikant lavere angrebsucces på 26% i lignende tests, hvilket indikerer, at den var i stand til at blokere en betydelig del af skadelige prompter [6]. Derudover udmærkede Openais O1 -model i sikkerhedskategorier som kontekstlækage og jailbreak med en succesrate på 0%, mens Deepseek R1 kæmpede i disse områder [4].
Googles Gemini og Anthropic's Claude 3.5 presterede også bedre end Deepseek R1 med hensyn til sikkerhed. Gemini opnåede en 35% succesrate for angribere, mens Claude 3,5 blokerede 64% af angrebene [9]. Denne forskel understreger behovet for robuste sikkerhedsforanstaltninger i AI-modeller, da Deepseek R1s omkostningseffektive træningsmetoder ser ud til at have kompromitteret dens sikkerhedsmekanismer [6] [9].
Sammenligningen fremhæver den bredere udfordring i AI -industrien med afbalancering af omkostningseffektivitet med sikkerhed og etiske overvejelser. Mens Deepseek R1 udmærker sig i performance -benchmarks, gør dens mangel på robuste sikkerhedsvogter det meget modtageligt for misbrug, og understreger vigtigheden af strenge sikkerhedsevalueringer for AI -modeller [1] [5].
Citater:
)
)
)
[4] https://splx.ai/blog/deepseek-r1-vs-openai-o1-the-grumte-security-showdown
)
)
[7] https://www.datacamp.com/blog/deepseek-r1
[8] https://far.ai/post/2025-02-r1-redaming/
)
[10] https://writsonic.com/blog/deepseek-vs-chatgpt
[11] https://www.itpro.com/technology/artificial-intelligence/deepseek-r1-model-jailbreak-security-flaws