Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon هل يمكن استخدام شرارة DGX مع AWS أو Azure


هل يمكن استخدام شرارة DGX مع AWS أو Azure


تم تصميم NVIDIA DGX Spark ، وهو حاسبات شخصية منظمة العفو الدولية ، لتشغيل نماذج الذكاء الاصطناعى محليًا على بيئة سطح المكتب. على الرغم من أنه لا يتم دمجه مباشرة مع الخدمات السحابية مثل AWS أو Azure للنشر ، يمكن للمستخدمين تطوير وضبط النماذج على DGX Spark ثم نشرها على منصات سحابة للإنتاج. إليك كيفية استخدامها بالاقتران مع AWS و Azure:

التكامل مع الخدمات السحابية

1. سير عمل التنمية والنشر: يمكن للمستخدمين الاستفادة من شرارة DGX لتطوير نماذج الذكاء الاصطناعى واختبارها واختبارها محليًا. بمجرد أن تكون النماذج جاهزة ، يمكن تحميلها على منصات سحابية مثل AWS أو Azure للنشر على نطاق واسع واستدلال. يتيح هذا النهج للمطورين العمل بكفاءة في بيئة محلية قبل التقويم في السحابة.

2. NVIDIA DGX Cloud: على الرغم من أن DGX Spark نفسها ليست خدمة سحابية ، فإن NVIDIA تقدم منصة DGX Cloud ، والتي تتوفر على AWS و Azure وغيرهم من مقدمي الخدمات السحابية. يوفر DGX Cloud وصولاً قابلاً للتطوير إلى وحدات معالجة الرسومات المتقدمة من NVIDIA ، مما يسمح للمستخدمين بتدريب نماذج الذكاء الاصطناعى ونشرها في السحابة. على الرغم من أن DGX Spark مخصصة للتطوير المحلي ، يمكن استخدام DGX Cloud في أعباء عمل الذكاء الاصطناعي المستندة إلى مجموعة النظراء.

3. AWS Integration: يقدم AWS مختلف الأدوات والخدمات لتطوير الذكاء الاصطناعي ، مثل Amazon Sagemaker لنشر النموذج ودُفعات AWS لاستنتاج الدُفعات. يمكن للمستخدمين تطوير نماذج على DGX Spark ثم نشرها باستخدام نقاط نهاية Sagemaker للاستدلال في الوقت الفعلي. بالإضافة إلى ذلك ، يوفر AWS حلول تخزين قابلة للتطوير مثل Amazon S3 ، والتي يمكن استخدامها لتخزين وإدارة مجموعات البيانات الكبيرة.

4. Azure Integration: يوفر Azure قدرات مماثلة مع Azure ML لنشر النموذج وخدمة Azure Kubernetes (AKs) لإدارة النماذج القابلة للتطوير. يمكن للمستخدمين تطوير نماذج محليًا على DGX Spark ثم نشرها على Azure للإنتاج ، والاستفادة من حلول التخزين القابلة للتطوير في Azure مثل تخزين Azure Blob.

باختصار ، على الرغم من أن شرارة DGX غير متكاملة مباشرة مع AWS أو Azure ، فإنها تكمل هذه المنصات السحابية من خلال السماح للمستخدمين بتطوير وضبط نماذج الذكاء الاصطناعى محليًا قبل نشرها على السحابة للإنتاج والاستدلال على نطاق واسع.

الاستشهادات:
[1] https://www.theverge.com/news/631957/nvidia-dgx-spark-station-grace-lackwell-ai-supercomputers-gtc
[2] https://www.datacenterdynamics.com/en/news/nvidia-dgx-cloud-now-available-via-aws/
[3] https://www.constellationr.com/blog-news/insights/nvidia-launches-dgx-spark-dgx-tation-personal-ai-supercomputers
[4]
[5] https://docs.aws.amazon.com/pdfs/prescriptive-guidance/latest/tuning-aws-glue-for-apache-spark/tuning-aws-glue-for-apache-spark.pdf
[6] https://www.pcmag.com/news/what-is-nvidias-dgx-tation-a-new-desktop-line-for-ai-work
[7] https://docs.nvidia.com/dgx-cloud/run-ai/latest/appendix.html
[8]
[9)
[10]
[11] https://nvidianews.nvidia.com/news/nvidia-announces-dgx-spark-and-dgx-tation-personal-ai-copters