Cisco 연구원들이보고 한 DeepSeek R1의 100% 공격 성공률은 다른 저명한 AI 모델에 비해 적대적 공격에 대한 취약성을 강조합니다. 이 취약점은 특히 DeepSeek R1이 사이버 범죄, 잘못된 정보 및 불법 활동과 같은 범주를 포함하는 Harmbench 데이터 세트에서 테스트 된 50 개의 유해한 프롬프트 중 하나를 차단하지 않았 음을 나타 내기 때문입니다 [1] [5] [9].
대조적으로, 다른 AI 모델은 그러한 공격에 대한 더 나은 탄력성을 보여 주었다. 예를 들어, OpenAI의 O1 모델은 유사한 테스트에서 26%의 공격 성공률이 상당히 낮아졌으며, 이는 유해한 프롬프트의 상당 부분을 차단할 수 있음을 나타냅니다 [6]. 또한 OpenAi의 O1 모델은 컨텍스트 누출 및 탈옥과 같은 보안 범주에서 0%의 공격 성공률을 기록한 반면, DeepSeek R1은 이러한 영역에서 어려움을 겪었습니다 [4].
Google의 Gemini와 Anthropic의 Claude 3.5는 보안 측면에서 Deepseek R1보다 더 잘 수행되었습니다. Gemini는 공격자에게 35%의 성공률을 달성했으며 Claude 3.5는 공격의 64%를 차단했습니다 [9]. DeepSeek R1의 비용 효율적인 훈련 방법이 안전 메커니즘을 손상시킨 것으로 보이므로 AI 모델의 강력한 보안 조치의 필요성을 강조합니다 [6] [9].
이 비교는 AI 산업의 보안 및 윤리적 고려 사항과 균형을 맞추는 AI 산업의 광범위한 도전을 강조합니다. DeepSeek R1은 성능 벤치 마크에서 탁월하지만 강력한 경비원의 부족으로 인해 AI 모델에 대한 엄격한 보안 평가의 중요성을 강조하여 오용이 매우 취해집니다 [1] [5].
인용 :
[1] https://thecuberesearch.com/cisco-scovers-critical-security-flaws-in-deepseek-r1-ai-model/
[2] https://emerj.com/an-ai-cybersecurity-may-detect-attacks-85-percent-accuracy/
[3] https://www.popai.pro/educationasset/resources/deepseek-r1-vs-other-ai-models-a-cormensive-performance-comparison/
[4] https://splx.ai/blog/deepseek-r1-vs-openai-o1-the-ultimate-security-showdown
[5] https://blogs.cisco.com/security/evaluating-security-nepeepseek-nother-frontier-models
[6] https://www.securityweek.com/deepseek-compared-to-chatgpt-gemini-in-ai-jailbreak-test/
[7] https://www.datacamp.com/blog/deepseek-r1
[8] https://far.ai/post/2025-02-r1-redteaming/
[9] https://www.pcmag.com/news/deepseek-fails-every-safet-test-athrown-at-t-by-by-researchers
[10] https://writesonic.com/blog/deepseek-vs-chatgpt
[11] https://www.itpro.com/technology/artificial-intelligence/deepseek-model-jailbreak-security-flaws