Tilpasse DeepSeek-R1-modeller involverer flere kostnadskomponenter, spesielt når du distribuerer dem på plattformer som Amazon Web Services (AWS). Her er en detaljert fordeling av kostnadene forbundet med å tilpasse og distribuere DeepSeek-R1-modeller:
1. Opplæringskostnader: De første treningskostnadene for DeepSeek-R1 er betydelig lavere sammenlignet med andre modeller som ChatGPT O1. DeepSeek-R1 er estimert til å koste mellom $ 6 millioner til å trene, noe som er 16 ganger til 33 ganger billigere enn Chatgpt O1 [3]. Imidlertid er denne kostnaden for den første utviklingen og opplæringen av modellen, ikke for tilpasning.
2. Tilpasning og distribusjon på AWS: Når du tilpasser DeepSeek-R1-modeller ved å bruke Amazon Bedrocks tilpassede modellimportfunksjon, er det flere kostnader å vurdere:
- Inferenskostnader: Disse er basert på antall aktive modellkopier og deres aktivitetsvarighet. Prisingen per tilpasset modellenhet (CMU) varierer avhengig av faktorer som arkitektur og region. For eksempel er prisen per CMU per minutt $ 0,0785 [4].
- Lagringskostnader: Det er en månedlig lagringskostnad per CMU, som er $ 1,95 [4]. Antall CMU -er som kreves avhenger av modellens arkitektur og kontekstlengde.
3. Eksempel Kostnadsberegning: For en DeepSeek-R1-Distill-lama-8b-modell som krever 2 CMU-er, hvis modellen er aktiv i 1 time per dag, ville den daglige inferenskostnaden være omtrent $ 9,42. Over en måned utgjør dette til 282,60 dollar for inferens og $ 3,90 for lagring, noe som resulterer i en total estimert månedlig kostnad på $ 286,50 [4].
4. PRIKKERING AV DEEPESEEK MODELLER: På AWS er prisingen på forespørsel for Deepseek-modeller som Deepseek R-1 $ 0,00135 per 1000 inngangstokener og $ 0,0054 per 1000 utgangstokens [8]. Denne prismodellen er nyttig for applikasjoner som krever fleksibel bruk uten langsiktige forpliktelser.
Oppsummert involverer tilpasning av DeepSeek-R1-modeller kostnader relatert til modelldistribusjon og bruk på plattformer som AWS, med spesifikke kostnader for inferens og lagring basert på tilpassede modellenheter. De første treningskostnadene for modellen er betydelig lavere enn sammenlignbare modeller, noe som gjør det til et kostnadseffektivt alternativ for AI-applikasjoner.
Sitasjoner:
[1] https://api-docs.deepseek.com/quick_start/pricing
[2] https://www.together.ai/models/deepseek-r1
[3] https://www.creolestudios.com/deepseek-vs-chatgpt-cost-comparison/
[4] https://repost.aws/questions/qu-hcixrtfsasokh8gl-koga/pricing-model-of-depseek-r1-distilled-lama-models-with-azon-bedrock-custom-modell-import
[5] https://community.intel.com/t5/blogs-/tech-invovation/artificial-intelligence-ai/discover-the-power-of-depseek-r1-a-cost-efficient-ai-model/post/1665557
[6] https://team-gpt.com/blog/deepseek-pricing/
[7] https://www.reddit.com/r/machinelearning/comments/1icfbll/d_deepseek_distillation_and_training_costs/
[8] https://aws.amazon.com/bedrock/pricing/