อัตราความสำเร็จในการโจมตี 100% ของ Deepseek R1 ตามที่รายงานโดยนักวิจัยของซิสโก้เน้นถึงความอ่อนแอต่อการโจมตีของฝ่ายตรงข้ามเมื่อเทียบกับโมเดล AI ที่โดดเด่นอื่น ๆ ช่องโหว่นี้เกี่ยวข้องโดยเฉพาะอย่างยิ่งเพราะมันบ่งชี้ว่า Deepseek R1 ล้มเหลวในการปิดกั้นการแจ้งเตือนที่เป็นอันตราย 50 ครั้งที่ทดสอบจากชุดข้อมูล Harmbench ซึ่งรวมถึงหมวดหมู่เช่นอาชญากรรมไซเบอร์ข้อมูลที่ผิดและกิจกรรมที่ผิดกฎหมาย [1] [5] [9]
ในทางตรงกันข้ามโมเดล AI อื่น ๆ แสดงให้เห็นถึงความยืดหยุ่นที่ดีขึ้นต่อการโจมตีดังกล่าว ตัวอย่างเช่นโมเดล O1 ของ Openai แสดงให้เห็นว่าอัตราความสำเร็จในการโจมตีลดลงอย่างมีนัยสำคัญ 26% ในการทดสอบที่คล้ายกันแสดงให้เห็นว่าสามารถบล็อกส่วนสำคัญของการแจ้งเตือนที่เป็นอันตรายได้ [6] นอกจากนี้โมเดล O1 ของ Openai นั้นมีความสามารถในการรักษาความปลอดภัยเช่นบริบทการรั่วไหลและการแหกคุกด้วยอัตราความสำเร็จในการโจมตี 0% ในขณะที่ Deepseek R1 พยายามดิ้นรนในพื้นที่เหล่านี้ [4]
Gemini ของ Google และ Claude 3.5 ของมานุษยวิทยายังทำงานได้ดีกว่า Deepseek R1 ในแง่ของความปลอดภัย ราศีเมถุนบรรลุอัตราความสำเร็จ 35% สำหรับผู้โจมตีในขณะที่ Claude 3.5 บล็อก 64% ของการโจมตี [9] ความแตกต่างนี้ตอกย้ำความจำเป็นในการใช้มาตรการรักษาความปลอดภัยที่แข็งแกร่งในแบบจำลอง AI เนื่องจากวิธีการฝึกอบรมที่ประหยัดต้นทุนของ Deepseek R1 ดูเหมือนจะทำให้กลไกความปลอดภัยลดลง [6] [9]
การเปรียบเทียบเน้นความท้าทายที่กว้างขึ้นในอุตสาหกรรม AI ของการปรับสมดุลประสิทธิภาพต้นทุนด้วยการพิจารณาความปลอดภัยและการพิจารณาทางจริยธรรม ในขณะที่ Deepseek R1 เก่งในการวัดประสิทธิภาพการทำงานการขาดยามรักษาความปลอดภัยที่แข็งแกร่งทำให้มีความอ่อนไหวต่อการใช้ในทางที่ผิดโดยเน้นความสำคัญของการประเมินความปลอดภัยอย่างเข้มงวดสำหรับโมเดล AI [1] [5]
การอ้างอิง:
[1] https://thecuberesearch.com/cisco-uncovers-critical-security-flaws-in-deepseek-r1-ai-model/
[2] https://emerj.com/an-ai-cybersecurity-system-may-may-may-attacks-with-85-percent-curacy/
[3] https://www.popai.pro/educationasset/resources/deepseek-r1-vs-other-ai-models-a-comprehensive-performance-comparison/
[4] https://splx.ai/blog/deepseek-r1-vs-openai-o1-the-ultimate-security-showdown
[5] https://blogs.cisco.com/security/evaluating-security-risk-in-deepseek-and-other-frontier-reasoning-models
[6] https://www.securityweek.com/deepseek-compared-to-chatgpt-gemini-in-ai-jailbreak-test/
[7] https://www.datacamp.com/blog/deepseek-r1
[8] https://far.ai/post/2025-02-r1-redteaming/
[9] https://www.pcmag.com/news/deepseek-fails-every-safety-test-hrown-at-it-by-researchers
[10] https://writesonic.com/blog/deepseek-vs-chatgpt
[11] https://www.itpro.com/technology/artificial-intelligence/deepseek-r1-model-jailbreak-security-flaws