Anpassa Deepseek-R1-modeller involverar flera kostnadskomponenter, särskilt när de distribuerar dem på plattformar som Amazon Web Services (AWS). Här är en detaljerad uppdelning av kostnaderna för att anpassa och distribuera Deepseek-R1-modeller:
1. Träningskostnader: Den inledande träningskostnaden för Deepseek-R1 är betydligt lägre jämfört med andra modeller som Chatgpt O1. Deepseek-R1 beräknas kosta mellan 6 miljoner dollar att träna, vilket är 16x till 33x billigare än chatgpt o1 [3]. Denna kostnad är emellertid för den första utvecklingen och utbildningen av modellen, inte för anpassning.
2. Anpassning och distribution på AWS: När du anpassar Deepseek-R1-modeller som använder Amazon Bedrocks anpassade modellimportfunktion finns det flera kostnader att tänka på:
- Inferenskostnader: Dessa är baserade på antalet aktiva modellkopior och deras aktivitetstid. Prissättningen per anpassad modellenhet (CMU) varierar beroende på faktorer som arkitektur och region. Till exempel är priset per CMU per minut $ 0,0785 [4].
- Lagringskostnader: Det finns en månatlig lagringskostnad per CMU, vilket är $ 1,95 [4]. Antalet CMU: er beror på modellens arkitektur och kontextlängd.
3. Exempel Kostnadsberäkning: För en DeepSeek-R1-Distill-llama-8B-modell som kräver 2 CMU: er, om modellen är aktiv i 1 timme per dag, skulle den dagliga inferenskostnaden vara cirka $ 9,42. Över en månad uppgår detta till $ 282,60 för inferens och $ 3,90 för lagring, vilket resulterar i en total uppskattad månadskostnad på $ 286,50 [4].
4. Priser på begäran för Deepseek-modeller: På AWS är prissättningen on-demand för Deepseek-modeller som Deepseek R-1 $ 0,00135 per 1 000 ingångstokens och $ 0,0054 per 1 000 utgångstokens [8]. Denna prissättningsmodell är användbar för applikationer som kräver flexibel användning utan långsiktiga åtaganden.
Sammanfattningsvis involverar anpassning av Deepseek-R1-modellerna kostnader relaterade till modelldistribution och användning på plattformar som AWS, med specifika avgifter för inferens och lagring baserat på anpassade modellenheter. Modellens inledande träningskostnad är betydligt lägre än jämförbara modeller, vilket gör det till ett kostnadseffektivt alternativ för AI-applikationer.
Citeringar:
[1] https://api-docs.deepseek.com/quick_start/pricing
[2] https://www.together.ai/models/deepseek-r1
[3] https://www.creolestudios.com/deepseek-vs-chatgpt-cost-comparison/
[4] https://repost.aws/questions/qu-hcixrtfsasokh8gl-koga/prising-model-of-deepseek-r1-distilled- llama-models-with-amazon-bedrock-custom-model-import
]
[6] https://team-gpt.com/blog/deepseek-pricing/
[7] https://www.reddit.com/r/machinelearning/comments/1icfbll/d_deepseek_distillation_and_training_costs/
[8] https://aws.amazon.com/bedrock/pricing/