Deepseek opnåede høj nøjagtighed på AIME 2024 benchmark ved at anvende flere innovative teknikker:
1. Fokuseret uddannelsesdatagenerering: Deepseek genererede træningsdata, der automatisk kunne verificeres, især inden for domæner som matematik, hvor korrekthed er entydig. Denne tilgang gjorde det muligt for dem at fokusere på at skabe høj kvalitet, relevante data, der direkte bidrager til forbedring af modelydelsen [1].
2. Effektive belønningsfunktioner: De udviklede meget effektive belønningsfunktioner designet til at identificere, hvilke nye træningseksempler der faktisk ville forbedre modellen. Denne strategi hjalp med at undgå at spilde beregningsressourcer på overflødige data og sikre, at modellen lærte af de mest værdifulde eksempler [1].
3. destillation og modeloptimering: Deepseek anvendte modeldestillationsteknikker til at skabe mindre modeller, der stadig opnåede imponerende resultater. For eksempel overgik deres destillerede 7B-model nøjagtigheden af større open source-modeller som QWQ-32B-forudgående, på trods af at de havde færre parametre. Dette demonstrerer, hvordan fokuseret træning kan føre til stærk ydeevne på specifikke domæner med beskedne beregningsressourcer [1].
4. Test-tidsberegning og ræsonnementskæder: Deepseek-modeller, såsom Deepseek R1, bruger en teknik kaldet "Test-Time Compute", som gør det muligt for modellen at bruge mere tid og beregningskraft på hvert problem. Denne tilgang efterligner menneskelignende overvejelser, hvilket resulterer i mere nøjagtige og tankevækkende svar. Når modellen genererer længere ræsonnementskæder, kan den løse stadig mere komplekse problemer med større nøjagtighed [6].
5. Gennemsigtighed og multi-agent arkitektur: Deepseek-modeller, især DeepSeek-R1, anvender en multi-agent samarbejdsarkitektur, der integrerer forskellige ræsonnementsveje. Denne synergi hjælper med at afbøde opgavespecifikke partier og forbedrer konsistensen ved at reducere variationen. Den strukturerede fremgangsmåde gør det muligt for modellen at dynamisk prioritere løsninger med høj tillid, mens iterativt raffinering af mindre visse output [3].
Disse teknikker bidrager kollektivt til Deepseeks imponerende ydelse på AIME 2024 -benchmark, der viser, hvordan strategiske træningsmetoder og modeldesign kan overgå rå beregningskraft til at opnå høj nøjagtighed.
Citater:
[Jeg
[2] https://www.reddit.com/r/localllama/comments/1ibxhwp/deepseekr1distillqwen32b_2024_aime_i_performance/
[3] https://arxiv.org/html/2503.10573v1
[4] https://www.prompthub.us/blog/deepseek-r-1-model-overview-and-how-t-ranks-genainst-openais-o1
[5] https://aws.amazon.com/bedrock/deepseek
[6] https://smythos.com/ai-agents/agent-arkitectures/deepseek-r1/
[7] https://www.amitysolutions.com/blog/deepseek-r1-i-giant-from-kina
[8] https://cloudsecurityalliance.org/blog/2025/01/29/deepseek-rewriting-the-rules-of-i-udvikling
[9] https://www.inferless.com/learn/the-ultimate-guide-to-deepseek-modeller