Deepseek R1'in% 100 saldırı başarı oranı, Cisco araştırmacıları tarafından bildirildiği gibi, diğer önemli AI modellerine kıyasla düşman saldırılarına karşı savunmasızlığını vurgulamaktadır. Bu güvenlik açığı özellikle ilgilidir, çünkü Deepseek R1'in siber suç, yanlış bilgilendirme ve yasadışı faaliyetler gibi kategorileri içeren Harmbench veri kümesinden test edilen 50 zararlı istemden herhangi birini engelleyemediğini gösterir [1] [5] [9].
Buna karşılık, diğer AI modelleri bu tür saldırılara karşı daha iyi esneklik göstermiştir. Örneğin, Openai'nin O1 modeli benzer testlerde% 26'lık önemli ölçüde daha düşük bir saldırı başarı oranı gösterdi, bu da zararlı istemlerin önemli bir bölümünü engelleyebildiğini gösterdi [6]. Ayrıca, Openai'nin O1 modeli,% 0 saldırı başarı oranı ile bağlam sızıntısı ve jailbreak gibi güvenlik kategorilerinde mükemmelleşirken, bu alanlarda Deepseek R1 mücadele etti [4].
Google'ın İkizleri ve Antropic'in Claude 3.5'i de güvenlik açısından Deepseek R1'den daha iyi performans gösterdi. İkizler saldırganlar için% 35 başarı oranı elde ederken, Claude 3.5 saldırıların% 64'ünü engelledi [9]. Bu eşitsizlik, Deepseek R1'in uygun maliyetli eğitim yöntemlerinin güvenlik mekanizmalarından ödün verdiği görüldüğü için AI modellerinde sağlam güvenlik önlemlerine duyulan ihtiyacın altını çizmektedir [6] [9].
Karşılaştırma, AI endüstrisindeki maliyet verimliliğini güvenlik ve etik hususlarla dengeleme konusunda daha geniş zorluğu vurgulamaktadır. Deepseek R1 performans kriterlerinde mükemmel olsa da, sağlam güvenlik korkuluklarının olmaması, yapay zeka modelleri için titiz güvenlik değerlendirmelerinin önemini vurgulayarak kötüye kullanmaya son derece duyarlı hale getirir [1] [5].
Alıntılar:
[1] https://thecuberesearch.com/cisco-n-covers-ritical-security-flaws-in-depseek-r1-Ai-model/
[2] https://emerj.com/an-ai-cybersecurity-system-may-detect-attacks-with-recent-ccuracy/
[3] https://www.popai.pro/educationasset/resources/deepseek-r1-vs-a-i-models-a-ponrechensive-pomformance-comparison/
[4] https://splx.ai/blog/deepseek-r1-vs-openai-o1-the-ultate-security-showdown
[5] https://blogs.cisco.com/security/evaluating-security-risk-in-depseek-and-frontier-weasoning-modeller
[6] https://www.securityweek.com/deepseek-compared-to-chatgpt-gemini-in-ai-hailbreak-test/
[7] https://www.datacamp.com/blog/deepseek-r1
[8] https://far.ai/post/2025-02-r1-redteaming/
[9] https://www.pcmag.com/news/deepseek-fails-wervery-test-thrown-t-t-t-tresearchers
[10] https://writonic.com/blog/deepseek-vs-chatgpt
[11] https://www.itpro.com/technology/arfial-intielligence/deepseek-r1-model-ajailbreak-security-flaws