„Deepseek-R1“ naudoja sudėtingą požiūrį į sudėtingų daugialypių posūkių pokalbių valdymą, derinant armatūros mokymąsi (RL) su struktūrizuotu mokymo procesu. Šis modelis yra skirtas pagerinti jo samprotavimo galimybes ir pagerinti jo reakcijų darną dėl kelių sąveikų.
Kelių pakopų mokymo procesas
1. „Cold Start“ etapas: Iš pradžių „Deepseek-R1“ yra tiksliai sureguliuotas naudojant aukštos kokybės duomenis, kurie padeda sukurti tvirtą aiškumo ir nuoseklumo pagrindą jo atsakymuose. Šioje fazėje nagrinėjamos bendros problemos, tokios kaip blogas skaitomumas ir mišrios kalbos išėjimai [1] [3].
2. Stiprinimo mokymasis: „Deepseek-R1“ mokymo pagrindas apima gryną RL, leidžiantį modeliui mokytis per bandymus ir klaidas. Šis metodas pagerina jo problemų sprendimo įgūdžius ir samprotavimo gebėjimus, todėl jis tampa mažiau priklausomas nuo plačių paženklintų duomenų rinkinių [2] [3].
3. Atmetimo mėginių ėmimas: Artėjant RL konvergencijai, modelis naudoja atmetimo atranką, kad sugeneruotų sintetinius duomenis, pasirinkdamas geriausius ankstesnių sėkmingų bandymų pavyzdžius. Šis žingsnis padidina mokymo duomenų įvairovę ir kokybę, dar labiau patikslinant modelio galimybes [1].
4. Galutinis RL etapas: Integruojant sintetinius ir prižiūrimus duomenis įvairiose srityse, „Deepseeek-R1“ yra galutinis sustiprinimo mokymosi etapas, užtikrinantis, kad jis galėtų efektyviai apibendrinti skirtingus raginimus ir scenarijus. Šis žingsnis yra labai svarbus norint išlaikyti našumą realaus pasaulio programose [1].
Kelių posūkių pokalbių tvarkymas
„Deepseek-R1“ architektūra leidžia jai išlaikyti kontekstą keliuose posūkiuose pokalbyje. Pridėjęs ankstesnius vartotojo ir asistento pranešimus, jis gali efektyviai sekti dialogo istoriją. Pvz., Kai vartotojas užduoda klausimą, po kurio seka kitas susijęs tyrimas, „Deepseeek-R1“ gali remtis ankstesniais mainais, kad pateiktų svarbius ir nuoseklius atsakymus [1] [3].
Performanso įžvalgos
Nepaisant savo stipriųjų pusių, ankstyvosios „Deepseeek-R1“ versijos susidūrė su iššūkiais su pasikartojančiais atsakymais daugialypiuose posūkiuose. Tačiau nuolatiniai mokymo metodikos patobulinimai žymiai padidino jos sugebėjimą tvarkyti sudėtingus dialogus neprarandant konteksto ar darnos [3] [4].
Apibendrinant galima pasakyti, kad „Deepseeek-R1“ daugiapakopis mokymo procesas ir sustiprinimo mokymosi sistema suteikia galimybę veiksmingai valdyti sudėtingus daugialypius pokalbius, remiantis tvirtu kokybės duomenų pagrindu ir tobulinant jo samprotavimo galimybes per kartojamąjį mokymąsi.
Citatos:[1] https://www.vellum.ai/blog/the-training-of-deepseek-r1-and-ways-to-use-use-it-it
[2] https://arxiv.org/html/2501.12948v1
[3] https://felloai.com/2025/01/deepseek-r1-the-open-source-ai-thats-peating-google-and-openai/
[4] https://www.reddit.com/r/localllama/comments/1i7fjqm/deepseek_r1_is_unusable_imho/
[5] https://www.datacamp.com/blog/deepseek-r1
[6] https://github.com/deepseek-ai/deepseek-r1/blob/main/readme.md
[7] https://api-docs.deepseek.com/guides/multi_round_chat
[8] https://www.linkedin.com/pulse/deepseek-revolutioning-ai-open-ource-reasoning-20-ramachandran-xakme