Налаштування моделей DeepSeek-R1 передбачає декілька компонентів витрат, особливо при розгортанні їх на платформах, таких як веб-сервіси Amazon (AWS). Ось детальний розбиття витрат, пов'язаних з налаштуванням та розгортанням моделей DeepSeek-R1:
1. Витрати на навчання: Початкова вартість навчання DeepSeek-R1 значно нижча порівняно з іншими моделями, такими як Chatgpt O1. За оцінками Deepseek-R1 коштувати від 6 мільйонів доларів, щоб пройти 16 разів до 33 разів дешевше, ніж Chatgpt O1 [3]. Однак ця вартість призначена для початкової розробки та навчання моделі, а не для налаштування.
2. Налаштування та розгортання на AWS: Під час налаштування моделей DeepSeek-R1 за допомогою функції імпорту на замовлення Amazon Bedrock, слід врахувати кілька витрат:
- Витрати на висновки: Вони ґрунтуються на кількості активних модельних копій та їх тривалості діяльності. Ціноутворення за спеціальною модельною одиницею (CMU) змінюється залежно від таких факторів, як архітектура та регіон. Наприклад, ціна за CMU за хвилину становить 0,0785 доларів [4].
- Витрати на зберігання: щомісячна вартість зберігання на CMU, що становить 1,95 долара [4]. Кількість необхідних СМС залежить від архітектури та довжини контексту моделі.
3. Приклад розрахунку витрат: Для моделі DeepSeek-R1-DISTILL-LLAMA-8B, що вимагає 2 CMUS, якщо модель активна протягом 1 години на день, щоденні витрати на виходи становитимуть приблизно 9,42 дол. За місяць це становить до 282,60 дол.
. Ця модель ціноутворення корисна для додатків, які потребують гнучкого використання без довгострокових зобов'язань.
Підводячи підсумок, налаштування моделей DeepSeek-R1 передбачає витрати, пов'язані з розгортанням моделей та використанням на платформах, таких як AWS, з конкретними витратами на висновки та зберігання на основі власних модельних одиниць. Початкова вартість тренувань моделі значно нижча, ніж порівнянні моделі, що робить її економічно ефективним варіантом для додатків AI.
Цитати:
[1] https://api-docs.deepseek.com/quick_start/pring
[2] https://www.together.ai/models/deepseek-r1
[3] https://www.creolestudios.com/deepseek-vs-chatgpt-compomparison/
[4] https://repost.aws/questions/qu-hcixrtfsasokh8gl-koga/pring-model-of-deepseek-r1-diled-llama-models-with-amazon-bedrock-custom-model-import
[5] https://community.intel.com/t5/blogs/tech-inovation/artificial-intelligence-ai/discover-the-phower-of-deepseek-a-cost-eficive-ai-model/post/1665557
[6] https://team-gpt.com/blog/deepseek-pring/
[7] https://www.reddit.com/r/machinelearning/comments/1icfbll/d_deepseek_distillation_and_training_costs/
[8] https://aws.amazon.com/bedrock/pring/