Deepseek-V3 introduit plusieurs progrès significatifs par rapport à son prédécesseur, Deepseek-V2, marquant une évolution notable dans les capacités et l'efficacité des modèles de gros langues.
Différences clés
1. Architecture et paramètres
- Deepseek-V3 dispose d'une architecture de mélange de Experts (MOE) avec un total de 671 milliards de paramètres, activant seulement 37 milliards par jeton. Cette conception optimise l'utilisation des ressources tout en conservant des performances élevées [1] [3].
- En revanche, Deepseek-V2 a également utilisé un cadre MOE mais avec moins de paramètres et des stratégies d'équilibrage de charge moins efficaces, conduisant à des frais généraux de communication plus élevés pendant la formation [2].
2. Innovations d'équilibrage des charges
- Deepseek-V3 utilise une stratégie d'équilibrage de charge sans perte auxiliaire, qui améliore les performances du modèle sans les inconvénients traditionnels associés à l'équilibrage de la charge dans les architectures MOE. Cette innovation garantit que tous les jetons sont traités efficacement pendant la formation et l'inférence, éliminant la baisse des jetons [5] [7].
- Deepseek-V2 a nécessité des mécanismes de perte auxiliaires qui pourraient dégrader les performances en raison de l'augmentation des coûts de communication [2].
3. Prédiction multi-token
- L'introduction d'un objectif de prédiction multi-token dans Deepseek-V3 améliore à la fois les capacités de l'efficacité de la formation et de l'inférence. Cela permet au modèle de prédire simultanément les jetons multiples, accélérant considérablement les temps de traitement et améliorant la précision [1] [4].
- Deepseek-V2 n'a pas incorporé cette fonctionnalité, ce qui a limité son efficacité pendant les tâches d'inférence [2].
4. Efficacité de la formation
- Le processus de formation de Deepseek-V3 est notamment efficace, ne nécessitant que 2,788 millions d'heures de GPU, ce qui est une réduction significative par rapport aux demandes de formation de Deepseek-V2. Cette efficacité est réalisée grâce à des techniques de précision mixte avancées (FP8) et à des cadres de formation optimisés [1] [5].
- La méthodologie de formation de Deepseek-V2 a été moins optimisée, entraînant une consommation de ressources plus élevée pour des tâches similaires [2].
5. Benchmarks de performance
- En termes de performances, Deepseek-V3 a obtenu des résultats de pointe dans diverses références, y compris des tâches de raisonnement mathématique et de codage, avec des scores tels que 87,1% sur MMLU et 87,5% sur BBH ** [1] [3 ].
- Alors que Deepseek-V2 a apporté des contributions significatives à la modélisation du langage, ses mesures de performance n'étaient pas aussi compétitives que celles de V3 [2].
En résumé, Deepseek-V3 représente une mise à niveau substantielle sur Deepseek-V2 grâce à une architecture améliorée, des techniques d'équilibrage de charge innovantes, une efficacité de formation améliorée et des performances supérieures à travers plusieurs repères. Ces avancées positionnent Deepseek-V3 comme un choix de premier plan dans le domaine des modèles de grande langue.
Citations:[1] https://www.deepseekv3.com/en
[2] https://stratechery.com/2025/deepseek-faq/
[3] https://deepseekv3.org
[4] https://daily.dev/blog/deepseek-everything-you-need-to-know-about-this-new-llm-in-one-place
[5] https://arxiv.org/html/2412.19437v1
[6] https://www.interconnects.ai/p/deepseek-v3-and-the-actual-cost-of
[7] https://adasci.org/deepseek-v3-plaked-optimising-efficy-and-scale/
[8] https://www.linkedin.com/pulse/deepseek-revolutioning-ai-open-source-easoning-20-ramachandran-xakme