Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Hogyan hasonlítja össze a DeepSeek R1 100% -os támadási sikerességi arányát más AI modellekkel


Hogyan hasonlítja össze a DeepSeek R1 100% -os támadási sikerességi arányát más AI modellekkel


A DeepSeek R1 100% -os támadási sikerességi aránya, amint azt a Cisco kutatói beszámolták, kiemeli annak sérülékenységét a versengés elleni támadásokkal szemben, mint más kiemelkedő AI modellek. Ez a sebezhetőség különösen arra vonatkozik, mert azt jelzi, hogy a DeepSeek R1 nem blokkolja a HarmBench adatkészletből tesztelt 50 káros utasítás egyikét, amely olyan kategóriákat tartalmaz, mint a számítógépes bűnözés, a téves információk és az illegális tevékenységek [1] [5] [9].

Ezzel szemben más AI modellek jobb ellenálló képességet mutattak az ilyen támadások ellen. Például az OpenAI O1 modellje szignifikánsan alacsonyabb támadássebességet mutatott 26% -os hasonló tesztekben, jelezve, hogy képes volt blokkolni a káros utasítások jelentős részét [6]. Ezenkívül az Openai O1 modellje olyan biztonsági kategóriákban, mint a kontextusszivárgás és a jailbreak, 0% -os támadási sikerességi rátával, míg a DeepSeek R1 ezeken a területeken küzdött [4].

A Google Ikrek és az Antropic's Claude 3.5 szintén jobban teljesített, mint a DeepSeek R1 a biztonság szempontjából. A Gemini 35% -os sikerességi rátát ért el a támadók számára, míg a Claude 3,5 blokkolta a támadások 64% -át [9]. Ez az egyenlőtlenség hangsúlyozza az AI modellekben robusztus biztonsági intézkedések szükségességét, mivel a DeepSeek R1 költséghatékony edzési módszerei úgy tűnik, hogy veszélyeztették a biztonsági mechanizmusait [6] [9].

Az összehasonlítás kiemeli az AI iparág szélesebb kihívását, hogy a költséghatékonyságot a biztonsági és etikai megfontolásokkal kiegyensúlyozzák. Míg a DeepSeek R1 kiemelkedik a teljesítmény -referenciaértékekben, a robusztus biztonsági védőkorlátok hiánya rendkívül hajlamos a visszaélésre, hangsúlyozva az AI modellek szigorú biztonsági értékeléseinek fontosságát [1] [5].

Idézetek:
[1] https://thecuberesearch.com/cisco-uncovers kritikus-szecurity-flaws-in-reepseek-r1-ai-model/
[2] https://emerj.com/an-ai-cybersecurity-system-may-detect-tacks-with-85-pent-acuracy/
[3] https://www.popai.pro/educationasset/resources/deepseek-r1-vs-other-ai-models-a-comprehensive-pleformance-comparison/
[4] https://splx.ai/blog/deepseek-r1-vs-openai-o1-the-ultimate-security-showdown
[5] https://blogs.cisco.com/security/evaluating-security-risk-in-deepseek-and-other-frontier-reason-models
[6] https://www.securityweek.com/deepseek-compared-to-chatgpt-gemini-in-ai jailbreak-test/
[7] https://www.datacamp.com/blog/deepseek-r1
[8] https://far.ai/post/2025-02-REDTEAMING/
[9] https://www.pcmag.com/news/deepseek-fails-avery-safety-test-thrown-at-it-by-researchers
[10] https://writesonic.com/blog/deepseek-vs-chatgpt
[11] https://www.itpro.com/technology/articial-intelligence/deepseek-r1-model-jailbreak-security-flaws