Primerjava računskih stroškov usposabljanja Deepseek-R1 in Claude 3.5 Sonnet vključuje preučevanje več dejavnikov, vključno z ocenjenimi stroški usposabljanja, modelno arhitekturo in računsko učinkovitostjo.
Deepseek-R1
- Ocenjeni stroški usposabljanja: Stroški usposabljanja za Deepseek-R1 naj bi znašali med 500.000 in 2 milijona dolarjev, nekateri viri pa kažejo, da bi lahko bil le malo milijon dolarjev, ko začnete iz prejšnje različice, kot je Deepseek V3 [1] [4]. Ta strošek je v primerjavi z drugimi obsežnimi AI modeli bistveno nižji.
-Modelna arhitektura in učinkovitost: Deepseek-R1 uporablja arhitekturo mešanic izkušenj (MOE), ki je zasnovana tako, da je računalniško učinkovita. Uporablja obsežno učenje okrepitve za izboljšanje svojih zmogljivosti sklepanja z minimalnimi označenimi podatki, kar zmanjšuje računsko breme, ki je običajno povezano z velikimi modeli [3] [6].
- Računalniška učinkovitost: Deepseek-R1 se osredotoča na ciljno arhitekturo modela in računalniško učinkovitost, ki prispeva k nižjim stroškom usposabljanja. To doseže z optimiziranimi procesi treninga in potencialno nižjimi zahtevami energije in strojne opreme [1].
Claude 3.5 Sonnet
- Ocenjeni stroški usposabljanja: Stroški usposabljanja za Claude 3.5 Sonnet naj bi znašali od 20 do 30 milijonov dolarjev, kar je bistveno višji od Deepseek-R1 [5].
- Modelna arhitektura in učinkovitost: Claude 3.5 Sonnet je zasnovan za visoke zmogljivosti pri kodiranju nalog in ponuja izboljšave hitrosti in učinkovitosti v primerjavi s predhodniki. Vendar se njegova arhitektura med usposabljanjem ne osredotoča posebej na zmanjšanje računskih stroškov [8].
- Operativni stroški: Medtem ko so stroški usposabljanja visoki, Claude 3.5 Sonnet ponuja konkurenčne operativne cene v višini 3 USD na milijon žetonov vhodnih žetonov in 15 dolarjev na milijon proizvodnih žetonov [8]. Vendar so ta operativni stroški še vedno višji od strukture cen Deepseek-R1, ki ima koristi od predpomnjenja mehanizmov [3] [6].
Če povzamemo, ima Deepseek-R1 bistveno nižje stroške usposabljanja v primerjavi s sonetom Claude 3.5, predvsem zaradi učinkovite metodologije arhitekture in usposabljanja. Vendar Claude 3.5 Sonnet ponuja vrhunske zmogljivosti pri nekaterih nalogah kodiranja in je na voljo z različnimi API -ji, zaradi česar je dragocena izbira za posebne aplikacije kljub višjim stroškom usposabljanja in operativnih stroškov.
Navedbe:
[1] https://www.bytePlus.com/sl/topic/384199
[2] https://www.reddit.com/r/openai/comments/1h82pl3/i_spent_8_hours_testing_o1_pro_200_vs_claude/
[3] https://blog.getbind.co/2025/01/23/deepseek-r1-vs-gpt-o1-vs-claude-3-5-sonnet-which-which-is-best-for-coding/
[4] https://epoch.ai/gradient-partdates/what-went-into-training-reepseek-r1
[5] https://www.linkedin.com/posts/debarghyadas_claude-sonnet-35-took-a-few-10ms-to-to-activity-7290427104863694849-6EM-
[6] https://docsbot.ai/models/compare/deepseek-r1/claude-3-5-sonnet
[7] https://www.linkedin.com/posts/jngiam_the-real-raining-costs-for-reepseek-is-Much-Activity-728968391965982720-WFPG
[8] https://www.anthropic.com/news/claude-3-5-sonnet
[9] https://elephas.app/blog/deepseek-vs-claude