Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Hvordan opretholder DeepSeek R1 kontekst over lange samtaler


Hvordan opretholder DeepSeek R1 kontekst over lange samtaler


Deepseek R1 anvender flere innovative strategier for at opretholde kontekst over lange samtaler og udnytte dens avancerede arkitektur- og træningsmetoder.

Arkitektoniske funktioner

** Blanding af eksperter (MOE) arkitektur
Deepseek R1 bruger en blanding af eksperterarkitektur, der giver den mulighed for kun at aktivere en undergruppe af sine 671 milliarder parametre under hver fremadrettet pas, specifikt 37 milliarder. Denne selektive aktivering forbedrer beregningseffektiviteten markant, hvilket gør det muligt for modellen at behandle udvidede sekvenser på op til 128.000 tokens, samtidig med at de opretholder sammenhæng og nøjagtighed i sine svar [1] [3]. MOE -routingsystemet er designet til at specialisere forskellige eksperter til forskellige ræsonnementsopgaver, hvilket er afgørende for at styre komplekse dialoger og sikre, at modellen kan følge med i udvidede samtaler uden at miste styr på kontekst.

Træningsmetoder

** Forstærkningslæring (RL) tilgang
I modsætning til traditionelle modeller, der er meget afhængige af overvåget finjustering, trænes Deepseek R1 primært ved hjælp af forstærkningslæring. Denne metode giver modellen mulighed for at udvikle ræsonnementsfunktioner autonomt. Uddannelsesprocessen inkluderer flere faser: startende med koldstart-data for at etablere et solidt fundament, efterfulgt af ren RL for at forbedre ræsonnementsevner og kulminere med yderligere RL-træning på tværs af forskellige prompter [2] [4]. Denne multi-trins tilgang hjælper modellen med at lære af både strukturerede data og interaktioner i den virkelige verden, hvilket er vigtigt for at opretholde kontekst over længere udveksling.

** Koldstart-dataudnyttelse
Den indledende fase af træning inkorporerer omhyggeligt kuraterede koldstart-data, der hjælper med at forbedre læsbarheden og sammenhængen i svarene. Disse data sikrer, at modellens output ikke kun er nøjagtige, men også brugervenlige og adresserer almindelige problemer, der findes i tidligere iterationer som dårlig læsbarhed og sprogblanding [2] [4]. Ved at etablere et struktureret outputformat, der inkluderer ræsonnementsprocesser og resume, bevarer DeepSeek R1 effektivt kontekst gennem lange samtaler.

Performance and Context Management

Deepseek R1s evne til at håndtere lange kontekster effektivt er sammenlignelig med førende modeller i marken. Dets ydeevne på tværs af forskellige benchmarks demonstrerer dens evne til at opretholde klarhed og logisk strøm, selv når de er involveret i komplekse dialoger. Modellens design giver den mulighed for at generere tusinder af ræsonnementsmærker pr. Respons, samtidig med at samtalen forbliver sammenhængende [1] [3]. Derudover muliggør integrationen af ​​selvverificering og reflektionsmekanismer det at revurdere tidligere udsagn og opretholde kontinuitet i diskussioner.

Generelt repræsenterer Deepseek R1 en betydelig udvikling i at opretholde samtale -kontekst gennem sin sofistikerede arkitektur og innovative træningspraksis.

Citater:
[1] https://unfoldai.com/deepseek-r1/
)
)
[4] https://arxiv.org/html/2501.12948v1
[5] https://forum.cursor.com/t/deepseek-r1-cancelled/44578
[6] https://www.reddit.com/r/openai/comments/1i5pr7q/it_just_happened_deepseekr1_is_here/
[7] https://github.com/deepseek-i/deepseek-r1/actions
[8] https://news.ycombinator.com/item?id=42823568