DeepSeek R1s 100% angrepssuksessrate, som rapportert av Cisco -forskere, fremhever sin sårbarhet for motstridende angrep sammenlignet med andre fremtredende AI -modeller. Denne sårbarheten er spesielt angående fordi den indikerer at DeepSeek R1 ikke klarte å blokkere noen av de 50 skadelige spørsmålene som ble testet fra Harmbench -datasettet, som inkluderer kategorier som nettkriminalitet, feilinformasjon og ulovlige aktiviteter [1] [5] [9].
Derimot har andre AI -modeller vist bedre motstandskraft mot slike angrep. For eksempel viste Openais O1 -modell en betydelig lavere angrepssuksessrate på 26% i lignende tester, noe som indikerte at den var i stand til å blokkere en betydelig del av skadelige spørsmål [6]. I tillegg utmerket Openais O1 -modell i sikkerhetskategorier som kontekstlekkasje og jailbreak, med en suksessrate på 0% angrep, mens DeepSeek R1 slet i disse områdene [4].
Googles Gemini og Anthropics Claude 3.5 presterte også bedre enn DeepSeek R1 når det gjelder sikkerhet. Gemini oppnådde en suksessrate på 35% for angripere, mens Claude 3,5 blokkerte 64% av angrepene [9]. Denne ulikheten understreker behovet for robuste sikkerhetstiltak i AI-modeller, ettersom DeepSeek R1s kostnadseffektive treningsmetoder ser ut til å ha kompromittert sikkerhetsmekanismene [6] [9].
Sammenligningen belyser den bredere utfordringen i AI -bransjen med å balansere kostnadseffektivitet med sikkerhet og etiske hensyn. Mens DeepSeek R1 utmerker seg i ytelsesbenker, gjør mangelen på robuste sikkerhets rekkverk det svært utsatt for misbruk, og understreker viktigheten av strenge sikkerhetsevalueringer for AI -modeller [1] [5].
Sitasjoner:
[1] https://thecuberesearch.com/cisco-uncover-critical-security-flaws-in-deepseek-r1-ai-model/
[2] https://emerj.com/an-ai-cybersecurity-system-may-detect-angs-with-85-stcent-accuracy/
[3] https://www.popai.pro/educationasset/resources/deepseek-r1-vs-oter-oter-ai-models-a-comprehensive-performance-comparison/
[4] https://splx.ai/blog/deepseek-r1-vs-openai- o1-the-fornimate-security-showdown
[5] https://blogs.cisco.com/security/eValuating-scurity-Sisk-in-depeSeek-and-oTher-frontier-reasoning-Models
[6] https://www.securityweek.com/deepseek-compared-to-chatgpt-gemini-in-ai-jailbreak-test/
[7] https://www.datacamp.com/blog/deepseek-r1
[8] https://far.ai/post/2025-02-r1-redteaming/
[9] https://www.pcmag.com/news/deepseek-fails-very-safety-test-trown-at-it-by-researchers
[10] https://writesonic.com/blog/deepseek-vs-chatgpt
[11] https://www.itpro.com/technology/artificial-intelligence/deepseek-r1-model-jailbreak-security-flaws