DeepSeek R1 migliora le sue capacità di ragionamento attraverso un nuovo approccio di apprendimento di rinforzo (RL) che differisce dai metodi tradizionali di messa a punto supervisionato (SFT). Questa strategia innovativa consente al modello di sviluppare capacità di ragionamento in modo indipendente ed efficiente.
framework di apprendimento del rinforzo
DeepSeek R1 impiega l'ottimizzazione delle politiche relative del gruppo (GRPO), un framework RL basato sulle regole che consente al modello di apprendere da prove ed errori senza fare affidamento su set di dati pre-etichettati. Questo approccio consente al modello di esplorare un vasto spazio di soluzione, scoprendo modelli e strategie di ragionamento unici che potrebbero non essere presenti nei dati di formazione supervisionati [1] [2] [4]. Incentivando il ragionamento durante il processo RL, DeepSeek R1 può generare catene coerenti di pensiero e impegnarsi nell'auto-verifica e nella riflessione, che sono fondamentali per la risoluzione di problemi complessi [4].
processo di formazione a più stadi
La formazione di Deepseek R1 è divisa in diverse fasi:
1. Fase di avvio a freddo: il modello inizia con una piccola quantità di dati supervisionati di alta qualità raccolti dal suo predecessore, DeepSeek R1-Zero. Questa fase aiuta a mitigare questioni come la scarsa leggibilità e la miscelazione del linguaggio che sono state osservate nei modelli precedenti [1] [2].
2. RL orientato al ragionamento: seguendo il freddo, il modello subisce un'ampia formazione RL orientata al ragionamento. Questa fase si concentra sul miglioramento delle capacità in domini specifici come codifica, matematica e logica, in cui possono essere definite soluzioni chiare usando le regole di ricompensa [3] [4].
3. Festa perfetta con nuovi dati: dopo la formazione RL iniziale, vengono generati nuovi dati supervisionati attraverso il campionamento del rifiuto in base al checkpoint RL. Questi dati vengono quindi utilizzati per ulteriori messa a punto, consentendo al modello di perfezionare le sue capacità di ragionamento attraverso vari compiti [1] [2].
Risultati delle prestazioni ##
Il risultato di questo rigoroso processo di addestramento è un modello che raggiunge i livelli di prestazione paragonabili ai principali modelli come O1-1217 di Openi su compiti di ragionamento. Ad esempio, DeepSeek R1 ha dimostrato significativi miglioramenti nei parametri di riferimento, con tassi di passaggio che aumentano dal 15,6% al 71% sui compiti AIME 2024, mettendo in mostra le sue capacità di ragionamento migliorate [1] [2].
In sintesi, l'approccio di apprendimento di rinforzo di Deepseek R1 non solo promuove il ragionamento indipendente, ma migliora anche l'efficienza di risoluzione dei problemi minimizzando la dipendenza da vasti set di dati supervisionati. Questo lo posiziona come un potente strumento nel paesaggio di modelli di linguaggio di grandi dimensioni.
Citazioni:[1] https://arxiv.org/html/2501.12948v1
[2] https://myedgegech.com/deepseek-r1-tr/
[3] https://www.youtube.com/watch?v=dcqqcllsibu
[4] https://arbisoft.com/blogs/deep-seek-r1-the-chinese-ai --powerhouse outperforming-open-ai-s-o1-at-95-less-less
[5] https://github.com/deepseek-ai/deepseek-r1/actions
[6] https://www.pompthub.us/blog/deepseek-1-model-overview-and-how-it-larks-against-openais-o1
[7] https://arxiv.org/abs/2501.12948
[8] https://www.vellum.ai/blog/the-training-of-deepseek-res-ways-to-use-it