Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Kan DGX -gnista användas med AWS eller Azure


Kan DGX -gnista användas med AWS eller Azure


NVIDIA DGX Spark, en personlig AI -superdator, är utformad för att köra AI -modeller lokalt på en skrivbordsmiljö. Även om det inte är direkt integrerat med molntjänster som AWS eller Azure för distribution, kan användare utveckla och finjustera modeller på DGX-gnistan och sedan distribuera dem till molnplattformar för produktion. Så här kan det användas i samband med AWS och Azure:

Integration med molntjänster

1. Utvecklings- och distributionsarbetsflöde: Användare kan utnyttja DGX-gnisten för att utveckla, finjustera och testa AI-modeller lokalt. När modellerna är redo kan de laddas upp till molnplattformar som AWS eller Azure för storskalig distribution och slutsats. Detta tillvägagångssätt gör det möjligt för utvecklare att arbeta effektivt i en lokal miljö innan de skalas upp i molnet.

2. NVIDIA DGX Cloud: Även om DGX Spark själv inte är en molntjänst, erbjuder NVIDIA DGX Cloud Platform, som är tillgänglig på AWS, Azure och andra molnleverantörer. DGX Cloud ger skalbar åtkomst till Nvidias avancerade GPU: er, vilket gör att användare kan träna och distribuera AI -modeller i molnet. Medan DGX Spark är för lokal utveckling, kan DGX Cloud användas för molnbaserade AI-arbetsbelastningar.

3. AWS -integration: AWS erbjuder olika verktyg och tjänster för AI -utveckling, till exempel Amazon Sagemaker för modelldistribution och AWS Batch för batchinferens. Användare kan utveckla modeller på DGX Spark och sedan distribuera dem med Sagemaker Endpoints för realtidsinferens. Dessutom tillhandahåller AWS skalbara lagringslösningar som Amazon S3, som kan användas för att lagra och hantera stora datasätt.

4. Azure -integration: Azure tillhandahåller liknande kapacitet med Azure ML för modelldistribution och Azure Kubernetes Service (AKS) för skalbar modellhantering. Användare kan utveckla modeller lokalt på DGX Spark och sedan distribuera dem till Azure för produktion och utnyttja Azures skalbara lagringslösningar som Azure Blob Storage.

Sammanfattningsvis, medan DGX-gnisten inte är direkt integrerad med AWS eller Azure, kompletterar det dessa molnplattformar genom att låta användare utveckla och finjustera AI-modeller lokalt innan de distribuerar dem till molnet för storskalig produktion och slutsats.

Citeringar:
[1] https://www.theverge.com/news/631957/nvidia-dgx-spark-station-grace-backwell-ai-supercomputers-gtc
]
[3] https://www.constellationr.com
[4] https://www.aquasec.com/cloud-native-academy/cspm/ai-workloads/
]
[6] https://www.pcmag.com/news/what-is-nvidias-dgx-station-a-new-specialiserad-Desktop-line-for-ai-work
[7] https://docs.nvidia.com/dgx-cloud/run-ai/latest/appendix.html
[8] https://blogs.nvidia.com/blog/aws-reinvent-ai-robotics-quantum-software/
]
]
[11] https://nvidianews.nvidia.com/news/nvidia-announces-dgx-spark-and-dgx-station-personal-ai-computers