Deepseek R1 parantaa päättelymahdollisuuksiaan uuden vahvistusoppimisen (RL) lähestymistavan avulla, joka poikkeaa perinteisistä valvotuista hienosäätö (SFT) -menetelmistä. Tämän innovatiivisen strategian avulla malli voi kehittää päättelytaitoja itsenäisesti ja tehokkaasti.
Vahvistusoppimiskehys
DeepSeek R1 työllistää ryhmän suhteellisen politiikan optimointia (GRPO), sääntöpohjaista RL-kehystä, jonka avulla malli voi oppia kokeilusta ja virheistä luottamatta esiasennettuihin tietojoukkoihin. Tämän lähestymistavan avulla malli voi tutkia laajaa ratkaisutilaa, löytää ainutlaatuisia päättelymallia ja strategioita, joita ei ehkä ole läsnä valvotuissa harjoitustiedoissa [1] [2] [4]. Kannustamalla päättelyä RL-prosessin aikana DeepSeek R1 voi tuottaa koherentteja ajatusketjuja ja harjoittaa itsevarmentaa ja pohdintaa, jotka ovat kriittisiä monimutkaiselle ongelmanratkaisulle [4].
monivaiheinen koulutusprosessi
Deepseek R1: n koulutus on jaettu useisiin vaiheisiin:
1. Kylmän käynnistysvaihe: Malli alkaa pienellä määrällä korkealaatuista valvottua tietoa, joka on kerätty edeltäjästään, Deepseek R1-Zero. Tämä vaihe auttaa lieventämään asioita, kuten huono luettavuus ja kielen sekoittaminen, joita havaittiin aikaisemmissa malleissa [1] [2].
2. Perustelukeskeinen RL: Kylmän aloituksen jälkeen malli käy läpi laajan päättelykeskeisen RL-koulutuksen. Tämä vaihe keskittyy ominaisuuksien parantamiseen tietyillä alueilla, kuten koodauksella, matematiikassa ja logiikassa, joissa selkeät ratkaisut voidaan määritellä palkkiosääntöjen avulla [3] [4].
3. Hienosäätö uudella tiedoilla: Alkuperäisen RL-koulutuksen jälkeen uusi valvottu tieto luodaan hylkäysnäytteen avulla RL-tarkistuspisteen perusteella. Tätä tietoa käytetään sitten edelleen hienosäätöön, jolloin malli voi tarkentaa päättelukykynsä eri tehtävissä [1] [2].
Suorituskykytulokset
Tämän tiukan koulutusprosessin tulos on malli, joka saavuttaa suorituskykytasot, jotka ovat verrattavissa johtaviin malleihin, kuten Openain O1-1217, päättelytehtävissä. Esimerkiksi Deepseek R1 osoitti merkittäviä parannuksia vertailuarvoissa, kun läpäisyaste kasvoi 15,6%: sta 71%: iin AIME 2024 -tehtävissä ja esitteli sen tehostettuja päättelykykyjä [1] [2].
Yhteenvetona voidaan todeta, että Deepseek R1: n vahvistusoppimislähestymistapa ei vain edistä itsenäistä päättelyä, vaan myös parantaa ongelmanratkaisun tehokkuutta minimoimalla riippuvuuden laajoista valvotuista tietojoukkoista. Tämä asettaa sen tehokkaana työkaluna suurten kielimallien maisemaan.
Viittaukset:[1] https://arxiv.org/html/2501.12948v1
[2] https://myedgetech.com/deepseek-r1-r//
[3] https://www.youtube.com/watch?v=dcqqcllsibu
.
[5] https://github.com/deepseek-ai/deepseek-r1/actions
.
[7] https://arxiv.org/abs/2501.12948
.