Wskaźnik sukcesu 100% ataku Deepseek R1, jak donosi badacze Cisco, podkreśla jego podatność na ataki przeciwne w porównaniu z innymi wybitnymi modelami AI. Ta podatność jest szczególnie niezależna, ponieważ wskazuje, że Deepseek R1 nie zablokował żadnej z 50 szkodliwych podpowiedzi testowanych z zestawu danych Harmbench, który obejmuje kategorie takie jak cyberprzestępczość, dezinformacja i nielegalne działania [1] [5] [9].
Natomiast inne modele AI wykazały lepszą odporność na takie ataki. Na przykład model O1 Openai wykazał znacznie niższy wskaźnik powodzenia ataku wynoszący 26% w podobnych testach, co wskazuje, że był w stanie zablokować znaczną część szkodliwych podpowiedzi [6]. Ponadto model O1 Openai wyróżniał się w kategoriach bezpieczeństwa, takich jak wyciek kontekstu i jailbreak, z wskaźnikiem powodzenia ataku 0%, podczas gdy Deepseek R1 walczył w tych obszarach [4].
Google's Gemini i Anthropic's Claude 3.5 również działały lepiej niż Deepseek R1 pod względem bezpieczeństwa. Gemini osiągnął 35% wskaźnik sukcesu dla atakujących, podczas gdy Claude 3,5 zablokował 64% ataków [9]. Ta rozbieżność podkreśla potrzebę solidnych miar bezpieczeństwa w modelach AI, ponieważ wydają się opłacalne metody szkolenia Deepseek R1, zagroziły jej mechanizmom bezpieczeństwa [6] [9].
Porównanie podkreśla szersze wyzwanie w branży AI w zakresie równoważenia efektywności kosztowej z bezpieczeństwem i względami etycznymi. Podczas gdy Deepseek R1 wyróżnia się punktami odniesienia wydajności, brak solidnych ochroniarzy sprawia, że jest bardzo podatny na niewłaściwe użycie, podkreślając znaczenie rygorystycznych ocen bezpieczeństwa dla modeli AI [1] [5].
Cytaty:
[1] https://thecuberesearch.com/cisco-uncovers-critical-security-flaws-in-deepseek-r1-ai-model/
[2] https://emerj.com/an-ai-chybersecurity-system-may-detect-attacks-with-85-percent-accuracy/
[3] https://www.popai.pro/educationasset/resources/deepseek-r1-vs-other-ai-models-a-comprehensive-performance-comparison/
[4] https://splx.ai/blog/deepseek-r1-vs-openai-o1-the-ultimate-security showdown
[5] https://blogs.cisco.com/security/evaluating-security-risk-in-deepseek-and-other-frontier-reassing-models
[6] https://www.securityweek.com/deepseek-compred-to-chatgpt-gemini-in-ai-jailbreak-test/
[7] https://www.datacamp.com/blog/deepseek-r1
[8] https://far.ai/post/2025-02-r1-redteaming/
[9] https://www.pcmag.com/news/deepseek-fails-every-safety-test-thrown-at-it-by-researchers
[10] https://writesonic.com/blog/deepseek-vs-chatgpt
[11] https://www.itpro.com/technology/artificial-intelligence/deepseek-r1-model-jailbreak-security-flaws