DeepSeek-R1 adresserer språkblandingsproblemer gjennom en flertrinns treningsprosess som kombinerer forsterkningslæring (RL) med overvåket finjustering (SFT). Opprinnelig starter modellen med en basisversjon (DeepSeek-V3-Base) som er finjustert ved hjelp av et lite sett med "kaldstart" -data, som hjelper til med å etablere et strukturert fundament for å forstå forskjellige språk og kontekster [1] [2 ].
Modellen bruker deretter rene RL -teknikker for å forbedre resonnementets evner. Under opplæringen ble det imidlertid observert at språkblanding kunne oppstå, spesielt når du håndterer spørsmål på andre språk enn engelsk eller kinesisk. For eksempel kan DeepSeek-R1 standard være engelsk for resonnement og svar selv om innspillet er på et annet språk [5] [6]. For å dempe dette bruker modellen avvisningsprøvetaking for å generere syntetiske treningsdata fra vellykkede RL-kjøringer, som deretter blir slått sammen med høykvalitets overvåket data fra forskjellige domener. Denne prosessen bidrar til å forbedre modellens tilpasningsevne til forskjellige språk og reduserer sannsynligheten for å blande språk i svar [1] [4].
Videre har pågående forskning som mål å optimalisere DeepSeek-R1 for bedre ytelse på tvers av et bredere spekter av språk mens de adresserer de nåværende begrensningene i håndtering av blandet språkinnganger effektivt. Fremtidige oppdateringer forventes å avgrense mulighetene på dette området, og forbedre dens respons og nøyaktighet når de samhandler med brukere i forskjellige språklige sammenhenger [2] [5].
Sitasjoner:
[1] https://www.vellum.ai/blog/the-training-of-depseek-r1-and-ways-u-un-it
[2] https://adasci.org/mastering-lms-reasoning-capability-depseek-r1/
[3] https://www.reddit.com/r/localllama/comments/1iagr6u/how_do_i_finetune_deepseek_r1_on_a_new_language/
[4] https://unfoldai.com/deepseek-r1/
[5] https://arxiv.org/html/2501.12948v1
[6] https://github.com/deepseek-ai/deepseek-r1/blob/main/readme.md
[7] https://github.com/deepseek-ai/deepseek-r1/activity
[8] https://arxiv.org/html/2501.17030v1