Stopnja uspeha Deepseek R1, ki jo poročajo raziskovalci Cisca, poudarja njegovo ranljivost za nasprotne napade v primerjavi z drugimi vidnimi modeli AI. Ta ranljivost je še posebej zaskrbljujoča, ker kaže, da Deepseek R1 ni uspel blokirati nobenega od 50 škodljivih pozivov, testiranih iz nabora podatkov o Harmbenchu, ki vključuje kategorije, kot so kibernetska kriminal, napačne informacije in nezakonite dejavnosti [1] [5] [9].
V nasprotju s tem so drugi modeli AI pokazali boljšo odpornost proti takšnim napadom. Na primer, OpenAI -jev model O1 je v podobnih testih pokazal znatno nižjo stopnjo uspešnosti napada 26%, kar kaže na to, da je lahko blokiral velik del škodljivih pozivov [6]. Poleg tega se je OpenAI -jev model O1 odlično odrezal v varnostnih kategorijah, kot sta uhajanje konteksta in jailbreak, z 0 -odstotno uspešnostjo napada, medtem ko se je Deepseek R1 na teh območjih boril [4].
Googlova Gemini in Anthropic's Claude 3.5 sta se tudi v varnosti delovala bolje kot Deepseek R1. Gemini je za napadalce dosegel 35 -odstotno uspešnost, Claude pa je 3,5 blokiral 64% napadov [9]. Ta neskladje poudarja potrebo po močnih varnostnih ukrepih v modelih AI, saj se zdi, da so stroškovno učinkovite metode usposabljanja Deepseek R1 ogrožale njegove varnostne mehanizme [6] [9].
Primerjava poudarja širši izziv v industriji AI uravnoteženja stroškovne učinkovitosti z varnostjo in etičnimi premisleki. Medtem ko se Deepseek R1 odlikuje v merilih uspešnosti, zaradi pomanjkanja močnih varnostnih varovalk je zelo dovzetno za zlorabo, kar poudarja pomen strogih varnostnih ocen za modele AI [1] [5].
Navedbe:
[1] https://thecuberesearch.com/cisco-uncovers-critical-security-flaws-in-meepseek-r1-ai-model/
[2] https://emerj.com/an-ai-cybercurity-system-may-detect-attacks-with-85-percent-accuracy/
[3] https://www.popai.pro/educationasset/resources/deepseek-r1-vs-other-ai-model
[4] https://splx.ai/blog/deepseek-r1-vs-openai-o1-the-oultimate-Security-showdown
[5] https://blogs.cisco.com/security/evaluting-security-risk-in-diepseek-and-other-frontier-loasoning-models
[6] https://www.securityweek.com/deepseek-compared-to-chatgpt-gemini-in-ai-jailbreak-test/
[7] https://www.datacamp.com/blog/deepseek-r1
[8] https://far.ai/post/2025-02-r1-redteaming/
[9] https://www.pcmag.com/news/deepseek-fails-every-safety-test-trown-at-it-By-Researchers
[10] https://writesonic.com/blog/deepseek-vs-chatgpt
[11] https://www.itpro.com/technology/artificial-intelligence/deepseek-r1-model-jailbreak-security-flaws