DeepSeek-V3 introducerer flere betydelige fremskridt over sin forgænger, Deepseek-V2, der markerer en bemærkelsesværdig udvikling i kapaciteten og effektiviteten af store sprogmodeller.
Nøgleforskelle
1. Arkitektur og parametre
-DeepSeek-V3 har en blanding af eksperter (MOE) arkitektur med i alt 671 milliarder parametre, der kun aktiverer 37 milliarder pr. Token. Dette design optimerer ressourceforbruget, mens den opretholder høj ydeevne [1] [3].
- I modsætning hertil anvendte DeepSeek-V2 også en MOE-ramme, men med færre parametre og mindre effektive belastningsafbalanceringsstrategier, hvilket førte til højere kommunikationsomkostninger under træning [2].
2. Load Balancing Innovations
-DeepSeek-V3 anvender en hjælpe-fri-fri belastningsafbalanceringsstrategi, som forbedrer modelydelsen uden de traditionelle ulemper, der er forbundet med belastningsbalancering i MOE-arkitekturer. Denne innovation sikrer, at alle tokens behandles effektivt under både træning og inferens, hvilket eliminerer token, der falder [5] [7].
- DeepSeek-V2 krævede hjælpetabsmekanismer, der kunne forringe ydelsen på grund af øgede kommunikationsomkostninger [2].
3. Multi-token forudsigelse
-Indførelsen af et multitisk forudsigelsesmål i DeepSeek-V3 forbedrer både træningseffektivitet og inferensfunktioner. Dette gør det muligt for modellen at forudsige flere tokens samtidigt, hvilket fremskyndede behandlingstider markant og forbedrer nøjagtigheden [1] [4].
- DeepSeek-V2 inkorporerede ikke denne funktion, som begrænsede dens effektivitet under inferensopgaver [2].
4. Træningseffektivitet
-DeepSeek-V3s træningsproces er især effektiv, hvilket kun kræver 2,788 millioner GPU-timer, hvilket er en betydelig reduktion sammenlignet med træningskravene fra Deepseek-V2. Denne effektivitet opnås gennem avancerede blandede præcisionsteknikker (FP8) og optimerede træningsrammer [1] [5].
- Træningsmetodikken for DeepSeek-V2 var mindre optimeret, hvilket resulterede i højere ressourceforbrug til lignende opgaver [2].
5. Performance benchmarks
-Med hensyn til ydeevne har DeepSeek-V3 opnået avancerede resultater på tværs af forskellige benchmarks, herunder matematisk ræsonnement og kodningsopgaver, med scoringer som 87,1% på MMLU og 87,5% på BBH ** [1] [3 ].
- Mens DeepSeek-V2 gav betydelige bidrag til sprogmodellering, var dens ydelsesmetrics ikke så konkurrencedygtige som V3 [2].
Sammenfattende repræsenterer DeepSeek-V3 en betydelig opgradering over DeepSeek-V2 gennem forbedret arkitektur, innovative belastningsbalanceringsteknikker, forbedret træningseffektivitet og overlegen ydelse på tværs af flere benchmarks. Disse fremskridt positionerer DeepSeek-V3 som et førende valg inden for store sprogmodeller.
Citater:[1] https://www.deepseekv3.com/en
[2] https://stratechery.com/2025/deepseek-faq/
[3] https://deepseekv3.org
)
[5] https://arxiv.org/html/2412.19437v1
)
[7] https://adasci.org/deepseek-v3-explained-optimizing-efficiency-andscal/
[8] https://www.linkedin.com/pulse/deepseek-revolutionizing-i-open-source-reasoning-20-ramachandran-xakme