Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Milyen speciális gépi tanulási algoritmusokat használ a képlet előállításához


Milyen speciális gépi tanulási algoritmusokat használ a képlet előállításához


A DeepSeek különféle fejlett gépi tanulási algoritmusokat használ a képlet előállításához és a matematikai érveléshez, különösen olyan modellekben, mint a DeepSeek R1. Itt található az alkalmazott konkrét technikák részletes áttekintése:

1. A gondolatlánc (COT) felszólítások: A DeepSeek R1 hosszú gondolkodási láncokat használ ki a matematikai érvelés fokozása érdekében. Ez magában foglalja a felszólítások strukturálását oly módon, hogy a modellt lépésről lépésre irányítsa az érvelési folyamatokon keresztül, hasonlóan ahhoz, hogy az emberek hogyan oldják meg a komplex problémákat [2]. Az ezen kiságyas utasítások alapján szintetikus képzési adatok előállításával a DeepSeek R1 javíthatja a matematikai problémák hatékonyabb megoldásának képességét, mint a nagyobb modellek.

2. Hideg kezdje el a finomhangolást: A DeepSeek R1 kezdetben hidegen kezdi el a finomhangolást egy kompakt adatkészlet segítségével, amely lépésről lépésre indokolt. Ez a kezdeti szakasz szilárd alapot teremt a modell érvelési képességeinek [6] [8]. A hidegindító adatok felhasználása elősegíti a problémamegoldás strukturált megközelítését.

3. megerősítés tanulás (RL): A kezdeti finomhangolást követően a DeepSeek R1 tiszta megerősítési tanulást alkalmaz, hogy javítsa érvelési képességeit. Ez a folyamat magában foglalja a minta válaszának automatikus pontozását a modellre a kívánt viselkedés felé, például lépésről lépésre történő megoldások biztosítására a matematikai problémákra [7] [8]. Az RL elengedhetetlen a modell érvelési képességének fejlesztéséhez anélkül, hogy a címkézett adatokra támaszkodna.

4. Az elutasító mintavétel és a felügyelt finomhangolás: Az RL folyamat közel konvergenciája a DeepSeek R1 az elutasító mintavételt használja a szintetikus adatok előállításához. Ezt a szintetikus adatokat ezután egyesítik a különböző területek felügyelt adatokkal, hogy tovább finomítsák a modell ismereteit és pontosságát [8]. Ez a lépés biztosítja, hogy a modell megtanuljon mind a kiváló minőségű outputokból, mind a különféle domain-specifikus ismeretekből.

5. Csoportos relatív politika optimalizálása (GRPO): A DeepSeek kifejlesztette a GRPO -t, egy új algoritmust, amelynek célja a megerősítés hatékonyabbá tétele. A GRPO -t használják az edzési folyamat optimalizálására, lehetővé téve a modell számára, hogy jól teljesítsen több referenciaértékben [7]. Noha a GRPO nem kifejezetten részletes a képlet előállításához, hozzájárul a DeepSeek edzési folyamatainak általános hatékonyságához.

6. Többlépcsős képzési folyamat: A DeepSeek R1 által alkalmazott többlépcsős képzési megközelítés magában foglalja a finomhangolás és a megerősítés tanulásának különböző szakaszaiban történő iterációt. Minden szakasz az előzőre épül, biztosítva, hogy a modell kidolgozza a robusztus érvelési képességeket, miközben fenntartja az olvashatóságot és a koherenciát [6] [8]. Ez a strukturált megközelítés kulcsfontosságú a matematikai érvelési feladatok nagy teljesítményének eléréséhez.

Összefoglalva: a DeepSeek képlet -termelési képességeit a fejlett NLP technikák, a megerősítés tanulási stratégiáinak és az innovatív algoritmusok, például a GRPO kombinációja támogatja. Ezek a módszerek lehetővé teszik a DeepSeek modellek számára, hogy kiemelkedjenek a matematikai érvelésben és a problémamegoldó feladatokban.

Idézetek:
[1] https://kalm.works/en/contents/technology/what-is-deepseek-differences-from-chatgpt-and-use-cases
[2] https://www.youtube.com/watch?v=pabqg33surg
[3] https://planetbanatt.net/articles/deepseek.html
[4] https://martinfowler.com/articles/deepseek-papers.html
[5] https://www.inferless.com/learn/the-ultimate-guide-to-deepseek-models
[6] https://www.reddit.com/r/singularity/comments/1i9lkbh/deepseekr1_how_did_they_make_an_openailevel/
[7] https://www.technologyReview.com/2025/01/31/1110740/how-deepseek-pted-pt-the-playbook-and-wy-mindenki-forging-to-follow-it/
[8] https://www.vellum.ai/blog/the-thraining-of-deepseek-r1-and-ways-touse-it