Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Cum își îmbunătățește prima strategie RL-RL a Deepseek-R1


Cum își îmbunătățește prima strategie RL-RL a Deepseek-R1


DeepSeek-R1 folosește o strategie de învățare de consolidare (RL)-În primul rând, pentru a-și îmbunătăți semnificativ capacitățile de raționament, distingând-o de modelele tradiționale care se bazează foarte mult pe reglarea fină supravegheată (SFT). Această abordare inovatoare permite Deepseek-R1 să dezvolte abilități de raționament prin explorare și feedback, mai degrabă decât prin date preexistente.

Caracteristici cheie ale strategiei RL-First

1. Explorare independentă a raționamentului **

Deepseek-R1 își începe pregătirea doar cu învățarea de armare, ocolind faza inițială SFT. Acest lucru permite modelului să exploreze și să evolueze în mod autonom capacitățile de raționament. Cadrul RL stimulează modelul să se implice în auto-verificare și reflecție, ceea ce duce la generarea de răspunsuri coerente ale lanțului de gândire (COT). Drept urmare, Deepseek-R1 poate aborda sarcini de raționament complexe, fără a fi constrâns de un set de date predefinit [2] [4].

2. Procesul de instruire în mai multe etape **

Pentru a-și îmbunătăți în continuare performanța, Deepseek-R1 încorporează un proces de instruire în mai multe etape care include o fază de pornire la rece, cu date minime supravegheate. Inițial, modelul este reglat bine folosind mii de exemple COT înainte de a fi supus unei antrenamente RL extinse. Această combinație permite Deepseek-R1 să-și perfecționeze abilitățile de raționament, în timp ce beneficiază în continuare de unele îndrumări structurate, obținând în cele din urmă niveluri de performanță comparabile cu modelele de frunte precum OpenAI O1-1217 [1] [3].

3.. Eficiența costurilor și accesibilitatea **

Primul strategie RL nu numai că stimulează capacitățile de raționament, ci și îmbunătățește eficiența instruirii. Prin reducerea dependenței de seturi de date mari supravegheate, Deepseek-R1 este dezvoltat la o fracțiune din cost în comparație cu modelele tradiționale. Acest lucru face ca raționamentul AI avansat să fie mai accesibil pentru startup -uri și cercetători care poate nu au resurse pentru SFT extins [2] [4].

4. Performanță pe referințe de raționament **

Deepseek-R1 a demonstrat îmbunătățiri remarcabile în raționamentele de referință, valori de performanță prezentând câștiguri semnificative după mii de iterații RL. De exemplu, rata de trecere a sarcinilor de raționament specifice a crescut dramatic de la 15,6% la 71% [1] [3]. Acest lucru prezintă eficacitatea abordării RL în cultivarea abilităților robuste de raționament.

În rezumat, strategia RL-First a Deepseek-R1 reprezintă un avans semnificativ în dezvoltarea modelelor de limbaj. Prin prioritizarea învățării de consolidare și integrarea datelor de început la rece, nu numai că îmbunătățește capacitățile de raționament, dar oferă și o alternativă mai eficientă și mai rentabilă la metodele tradiționale de formare.

Citări:
[1] https://arxiv.org/html/2501.12948v1
[2] https://arbisoft.com/blogs/deep-seek-r1-the-chinese-AI-OWERHOUSE OUTPERFORFORMING-OPEN-AI-S-O1-AT-95-UNS-COST
[3] https://huggingface.co/papers/2501.12948
[4] https://myedgeech.com/deepseek-r1-tr/
[5] https://arxiv.org/abs/2501.12948
[6] https://www.vellum.ai/blog/the-training-of-deepseek-r1-and-ways-to-use-it-it
[7] https://github.com/deepseek-ai/deepseek-r1/activity
[8] https://predibase.com/blog/deepseek-renself-improves-and-unseats-o1-with-reinforcement-learning

Cei