NVIDIA DGX Spark, en personlig AI -supercomputer, er designet til at køre AI -modeller lokalt på et desktopmiljø. Selvom det ikke er direkte integreret med skytjenester som AWS eller Azure til implementering, kan brugerne udvikle og finjustere modeller på DGX-gnisten og derefter implementere dem til skyplatforme til produktion. Sådan kan det bruges sammen med AWS og Azure:
Integration med skytjenester
1. Udvikling og implementering af arbejdsgang: Brugere kan udnytte DGX-gnisten til at udvikle, finjustere og teste AI-modeller lokalt. Når modellerne er klar, kan de uploades til skyplatforme som AWS eller Azure til storstilet implementering og inferens. Denne tilgang giver udviklere mulighed for at arbejde effektivt i et lokalt miljø, før de skaleres op i skyen.
2. NVIDIA DGX Cloud: Selvom DGX Spark i sig selv ikke er en cloud -service, tilbyder NVIDIA DGX Cloud -platformen, som er tilgængelig på AWS, Azure og andre skyudbydere. DGX Cloud giver skalerbar adgang til NVIDIAs avancerede GPU'er, så brugerne kan træne og implementere AI -modeller i skyen. Mens DGX Spark er til lokal udvikling, kan DGX Cloud bruges til skybaserede AI-arbejdsbelastninger.
3. AWS -integration: AWS tilbyder forskellige værktøjer og tjenester til AI -udvikling, såsom Amazon Sagemaker til modelinstallation og AWS -batch til batch -inferens. Brugere kan udvikle modeller på DGX Spark og derefter implementere dem ved hjælp af Sagemaker-endepunkter til realtids inferens. Derudover leverer AWS skalerbare opbevaringsløsninger som Amazon S3, som kan bruges til at gemme og administrere store datasæt.
4. Azure -integration: Azure giver lignende muligheder med Azure ML til modelinstallation og Azure Kubernetes Service (AKS) til skalerbar modelstyring. Brugere kan udvikle modeller lokalt på DGX Spark og derefter indsætte dem til Azure til produktion og udnytte Azures skalerbare opbevaringsløsninger som Azure Blob Storage.
I sammendraget, mens DGX-gnisten ikke er direkte integreret med AWS eller Azure, supplerer det disse skyplatforme ved at give brugerne mulighed for at udvikle og finjustere AI-modeller lokalt, før de implementerer dem til skyen til storstilet produktion og inferens.
Citater:
[1] https://www.theverge.com/news/631957/nvidia-dgx-spark-station-grace-blackwell-i-supercomputere-gtc
)
[3] https://www.constellationr.com/blog-news/insights/nvidia-launches-dgx-spark-dgx-station-personal-i-supercomputere
[4] https://www.aquasec.com/cloud-native-academy/cspm/ai-worbelasts/
)
)
[7] https://docs.nvidia.com/dgx-cloud/run-i/latest/appendix.html
)
)
)
[11] https://nvidianews.nvidia.com/news/nvidia-aNounces-dgx-Park-and-DGX-Station-Personal-i-computere