GitHub Copilot y Deepseek son dos herramientas de IA con distintos enfoques de seguridad. Aquí hay una comparación detallada de sus medidas de seguridad:
Medidas de seguridad de copiloto de Github
GitHub Copilot incorpora varias características de seguridad robustas para proteger los datos del usuario y prevenir vulnerabilidades:
1. Sistema de filtrado de vulnerabilidad: GitHub Copilot tiene un nuevo sistema de filtrado de vulnerabilidad diseñado para hacer que sus sugerencias de código sean más seguras. Este sistema se dirige a patrones de codificación vulnerables comunes, como credenciales codificadas, inyecciones SQL e inyecciones de ruta [1].
2. Prevención de vulnerabilidad basada en IA: Copilot utiliza un sistema basado en IA para bloquear los patrones de codificación inseguros en tiempo real. Esto se combina con funciones de seguridad avanzadas de GitHub como escaneo de código, escaneo secreto y gestión de dependencia para proporcionar una experiencia de seguridad integral [1].
3. Privacidad y protección de datos: el copiloto de GitHub, especialmente la versión empresarial, asegura que la información confidencial no se filtre. Está capacitado en repositorios de código público, reduciendo los riesgos de exposición, y los usuarios pueden optar por no permitir que Copilot acceda a repositorios privados [7].
4. Recomendaciones de revisión manual: GitHub y los expertos en seguridad recomiendan revisiones manuales del código generado por Copilot para garantizar que cumpla con los estándares de codificación organizacional y las pautas de seguridad. Herramientas como GGShield y los ganchos previos al comercio pueden ayudar a identificar dependencias y vulnerabilidades maliciosas [4].
Medidas de seguridad y vulnerabilidades de SpeedSeek
En contraste, Deepseek tiene varias preocupaciones de seguridad y carece de medidas sólidas en comparación con el copiloto:
1. Protecuentes débiles: los filtros de seguridad de Deepseek se omiten fácilmente utilizando técnicas como la escalada rápida y las soluciones de codificación. Esto lo hace vulnerable a generar contenido dañino, como las guías de creación de malware [2] [8].
2. Exposición de datos: Deepseek ha experimentado violaciones de datos significativas, incluida la exposición de más de un millón de líneas de registros de interacción de IA, claves API y credenciales de backend. Esto resalta las prácticas de seguridad operativas inadecuadas [2] [3] [5].
3. Cifrado inseguro: la aplicación Deepseek iOS deshabilita la seguridad del transporte de aplicaciones (ATS), lo que permite la transmisión de datos sin cifrar. También utiliza un algoritmo de cifrado en desuso (3DE) con claves codificadas, comprometiendo aún más la seguridad [5].
4. Falta de cumplimiento y medidas regulatorias: a diferencia de Copilot, que opera dentro del ecosistema seguro de Microsoft que garantiza el cumplimiento regulatorio, Deepseek carece de medidas de cumplimiento sólidas. Esto lo hace menos adecuado para industrias que requieren altos estándares de protección de datos [3].
En resumen, GitHub Copilot ofrece un marco de seguridad más completo con características como filtrado de vulnerabilidad, prevención basada en IA y medidas de protección de datos robustas. Deepseek, por otro lado, está plagado de filtros de seguridad débiles, violaciones de datos significativas y prácticas de cifrado inadecuadas, por lo que es un mayor riesgo para los usuarios.
Citas:
[1] https://www.techtarget.com/searchsecurity/news/366571117/github-copilot-replicating-vulnerability-secure-code
[2] https://www.esentire.com/blog/deepseek-ai-what-security-leaders-need-to-know-upout-its-security-risks
[3] https://accessorange.com/choosing-ai-copilot-vs-deepseek/?swcfpc=1
[4] https://blog.gitguardian.com/github-copilot-security-and-privacy/
[5] https://krebsonsecurity.com/2025/02/experts-flag-security-privacy-risks-indeepseek-ai-app/
[6] https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy
[7] https://www.linkedin.com/pulse/github-copilot-security-review-neil-king-7lobc
[8] https://blogs.cisco.com/security/evaluating-security-risk-in-deepseek-and--tero-frontier-razoning-models