NVIDIA DGX Spark, osobní superpočítač AI, je navržen tak, aby provozoval modely AI lokálně na prostředí stolního počítače. I když to není přímo integrováno do cloudových služeb, jako je AWS nebo Azure pro nasazení, mohou uživatelé vyvíjet a jemně doladit modely na DGX Spark a poté je nasadit na cloudové platformy pro výrobu. Zde je způsob, jak jej lze použít ve spojení s AWS a Azure:
Integrace s cloudovými službami
1. pracovní postup vývoje a nasazení: Uživatelé mohou využít jiskru DGX k vývoji, doladění a testování modelů AI na místní úrovni. Jakmile jsou modely připraveny, mohou být nahrány na cloudové platformy, jako jsou AWS nebo Azure pro rozsáhlé nasazení a závěr. Tento přístup umožňuje vývojářům efektivně pracovat v místním prostředí, než se zmenšuje v cloudu.
2. NVIDIA DGX Cloud: Ačkoli samotná DGX Spark není cloudová služba, NVIDIA nabízí cloudovou platformu DGX, která je k dispozici na AWS, Azure a dalších poskytovatelích cloudu. DGX Cloud poskytuje škálovatelný přístup k pokročilým GPU NVIDIA, což uživatelům umožňuje trénovat a nasazovat modely AI v cloudu. Zatímco DGX Spark je pro místní vývoj, Cloud DGX lze použít pro pracovní zatížení AI založené na cloudu.
3. AWS Integrace: AWS nabízí různé nástroje a služby pro vývoj AI, jako je Amazon SageMaker pro nasazení modelu a Batch pro dávkovou závěr. Uživatelé mohou vyvíjet modely na DGX Spark a poté je nasadit pomocí koncových bodů SageMaker pro odvození v reálném čase. AWS navíc poskytuje škálovatelná úložná řešení, jako je Amazon S3, která lze použít k ukládání a správě velkých datových sad.
4. Azure Integrace: Azure poskytuje podobné schopnosti s Azure ML pro nasazení modelu a Azure Kubernetes Service (AKS) pro škálovatelné řízení modelů. Uživatelé mohou vyvíjet modely lokálně na DGX Spark a poté je nasadit do Azure pro výrobu, využívat škálovatelné řešení Azure jako Azure Blob Storage.
Stručně řečeno, zatímco DGX Spark není přímo integrována s AWS nebo Azure, doplňuje tyto cloudové platformy tím, že uživatelům umožňuje vyvíjet a doladit modely AI lokálně před jejich nasazením do cloudu pro rozsáhlou výrobu a inferenci.
Citace:
[1] https://www.theverge.com/news/631957/nvidia-park-station-race-lackwell-ai-supercomputers-gtc
[2] https://www.datacenterdynamics.com/en/news/nvidia-Dgx-cloud-now-available-via-aws/
[3] https://www.constellationr.com/blog-news/insights/nvidia-lounches-dgx-park-park-dgx-station-toral-ai-supercomputers
[4] https://www.aquasec.com/cloud-native-academy/cspm/ai-workloads/
[5] https://docs.aws.amazon.com/pdfs/prescriptive-guidance/latest/tuning-aws-glue-for-apache-park/tuning-aws-glue-for-apache.pdf
[6] https://www.pcmag.com/news/what-is-nvidias-dgx-station-a-new-specialized-desktop-line-for-ai-work
[7] https://docs.nvidia.com/dgx-cloud/run-atest/appendix.html
[8] https://blogs.nvidia.com/blog/aws-reinvent-ai-robotics-quantum-software/
[9] https://page.adn.de/hubfs/25042371/Herstellerseiten/nvidia/download/virtualisierung/nvidia%20ai%20Enterprise%20licensing-guide.pdf?hslang=de
[10] https://www.bigdatawire.com/2024/12/11/nvidia-touts-lower- time-to---tith-cloud-on-aws/
[11] https://nvidianews.nvidia.com/news/nvidia-announces-Dgx-park-and-Dgx-station-to--ai-computers