عند نشر DeepSeek-R1 على AWS ، لا يتم تفصيل متطلبات التخزين بشكل صريح من حيث خدمات تخزين AWS المحددة. ومع ذلك ، فإن النموذج نفسه يتطلب مساحة تخزين كبيرة لأوزانه. على سبيل المثال ، يحتوي نموذج DeepSeek-R1 الكامل في الأصل على بصمة تبلغ حوالي 720 جيجابايت ، على الرغم من أن التحسينات يمكن أن تقلل من هذا الحجم بشكل كبير ، مثل انخفاض إلى 131 جيجابايت من خلال تقنيات القياس والضغط [3].
لنشرات AWS ، تحتاج عادة إلى النظر في الجوانب التالية:
1. تخزين النماذج: يجب تخزين أوزان النموذج في موقع يمكن الوصول إليه بواسطة مثيلات AWS الخاصة بك. يمكن أن يكون هذا في دلو S3 ، والذي يستخدم عادة لتخزين مجموعات البيانات الكبيرة وملفات النماذج. تعتمد تكلفة تخزين النموذج في S3 على المنطقة وفئة التخزين المستخدمة (على سبيل المثال ، القياسية ، القياسية ، IA ، منطقة واحدة ، إلخ).
2. تخزين المثيل: عند تشغيل النموذج على مثيلات EC2 ، ستحتاج إلى سعة تخزين كافية لنظام التشغيل ، وأي برنامج إضافي مطلوب ، وتخزين مؤقت محتمل لمخرجات النماذج أو النتائج الوسيطة. عادة ما يتم توفير هذا التخزين من خلال حجم جذر المثيل أو أحجام EBS إضافية.
3. تخزين البيانات للاستدلال: إذا كنت تستخدم النموذج لمهام الاستدلال ، فقد تحتاج إلى تخزين إضافي لبيانات الإدخال والإخراج. يمكن أيضًا إدارة هذا من خلال S3 أو خدمات تخزين AWS الأخرى مثل EBS أو أحجام متجر الأمثلة.
فيما يتعلق بخدمات AWS المحددة ، غالبًا ما تستخدم Amazon S3 لتخزين أوزان النموذج بسبب قابلية التوسع وموثوقيتها. لتشغيل النموذج ، يتم استخدام مثيلات Amazon EC2 بشكل شائع ، مع احتياجات التخزين اعتمادًا على نوع المثيل والتكوين. بالنسبة للنشر على نطاق واسع ، يمكن أيضًا استخدام Amazon Sagemaker ، والتي توفر بيئة مُدارة لمهام التعلم الآلي ، بما في ذلك تخزين النماذج واستدلالها.
لاعتبارات التكلفة ، تعتمد تكاليف التخزين في AWS على الخدمات المحددة المستخدمة. على سبيل المثال ، تختلف تكاليف تخزين S3 بناءً على فئة التخزين والمنطقة ، بينما تتضمن تكاليف مثيل EC2 كل من مكونات الحساب والتخزين. بالإضافة إلى ذلك ، يمكن أن يؤدي استخدام خدمات مثل Sagemaker إلى تبسيط إدارة هذه التكاليف من خلال توفير بيئة مُدارة لمهام ML.
الاستشهادات:
[1] https://dev.to/askyt/deepseek-r1-Architecture-training-local-deployment--hardware-requirements-3mf8
[2] https://www.byteplus.com/en/topic/383522
[3]
[4] https://aws.amazon.com/blogs/machine-learning/deploy-deepseek-distilled-models-on-amazon-sagemaker-use-a-large-model-inference-container/
[5] https://www.aboutamazon.com/news/aws/aws-deepeseek-r1-ly-managed-generally-avable
[6] https://aws.amazon.com/blogs/machine-learning/optimize-hosting-deepseek-r1-distilled-models-with-hugging-face-tgi-on-amazon-sagemaker-ai//
[7] https://repost.aws/questions/qu-hcixrtfsasokh8gl-koga/pricing-model-of-deepseek-distilled-llama-models-with-amazon-bedrock-custom-model-import
[8] https://community.aws/content/2z6dlaohx12yunoeas7qb5yth0q/leveraging-deepseek-r1-on-aws؟lang=en
[9] https://community.aws/content/2seuhqlpyifswckzmx585jcksgn/deploying-deepseek-r1-14b-on-amazon-ec2؟lang=en
[10]
[11] https://vagon.io/blog/a-step-by-step-guide-to-running-deepseek-r1-on-vagon-cloud-desktops