Personalizar los modelos Deepseek-R1 implica varios componentes de costos, particularmente cuando los implementa en plataformas como Amazon Web Services (AWS). Aquí hay un desglose detallado de los costos asociados con la personalización e implementación de modelos Deepseek-R1:
1. Costos de capacitación: el costo inicial de capacitación de Deepseek-R1 es significativamente más bajo en comparación con otros modelos como ChatGPT O1. Se estima que Deepseek-R1 cuesta entre $ 6 millones en entrenar, que es de 16x a 33x más barato que el chatgpt o1 [3]. Sin embargo, este costo es para el desarrollo y capacitación inicial del modelo, no para la personalización.
2. Personalización e implementación en AWS: Al personalizar los modelos Deepseek-R1 utilizando la función de importación de modelos personalizada de Amazon Bedrock, hay varios costos a considerar:
- Costos de inferencia: estos se basan en el número de copias del modelo activo y su duración de la actividad. El precio por unidad modelo personalizada (CMU) varía según factores como la arquitectura y la región. Por ejemplo, el precio por CMU por minuto es de $ 0.0785 [4].
- Costos de almacenamiento: hay un costo de almacenamiento mensual por CMU, que es de $ 1.95 [4]. El número de CMU requeridos depende de la arquitectura y la longitud del contexto del modelo.
3. Cálculo de costos de ejemplo: para un modelo Deepseek-R1-Distill-Llama-8B que requiere 2 cmus, si el modelo está activo durante 1 hora por día, el costo de inferencia diaria sería de aproximadamente $ 9.42. Durante un mes, esto totaliza a $ 282.60 por inferencia y $ 3.90 para el almacenamiento, lo que resulta en un costo mensual total estimado de $ 286.50 [4].
4. Precios a pedido para modelos DeepSeek: en AWS, el precio a pedido para modelos Deepseek como Deepseek R-1 es de $ 0.00135 por 1,000 tokens de entrada y $ 0.0054 por 1,000 tokens de salida [8]. Este modelo de precios es útil para aplicaciones que requieren un uso flexible sin compromisos a largo plazo.
En resumen, la personalización de los modelos Deepseek-R1 implica costos relacionados con la implementación y el uso del modelo en plataformas como AWS, con cargos específicos de inferencia y almacenamiento basados en unidades de modelo personalizadas. El costo de capacitación inicial del modelo es significativamente más bajo que los modelos comparables, lo que lo convierte en una opción rentable para las aplicaciones de IA.
Citas:
[1] https://api-docs.deepseek.com/quick_start/picing
[2] https://www.together.ai/models/deepseek-r1
[3] https://www.creolestudios.com/deepseek-vs-chatgpt-cost-comparison/
[4] https://repost.aws/questions/qu-hcixrtfsasokh8gl-koga/picing-model-ofdeepseek-r1-distilled-llama-models-with-amazon-bedrock-custom-model-import
[5] https://community.intel.com/t5/blogs/tech-innovation/artificial-intelligence-ai/discover-the-power-ofdeepseek-r1-a-cost-eficiente-ai-model/post/1665557
[6] https://team-gpt.com/blog/deepseek-pricing/
[7] https://www.reddit.com/r/machinelearning/comments/1icfbll/d_deepseek_distillation_and_training_costs/
[8] https://aws.amazon.com/bedrock/picing/