Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Czy można użyć iskier DGX z AWS lub Azure


Czy można użyć iskier DGX z AWS lub Azure


Nvidia DGX Spark, osobisty superkomputer AI, został zaprojektowany do uruchamiania modeli AI lokalnych w środowisku komputerowym. Chociaż nie jest bezpośrednio zintegrowany z usługami chmurowymi, takimi jak AWS lub Azure w celu wdrożenia, użytkownicy mogą opracowywać i dostroić modele w DGX Spark, a następnie wdrażać je na platformach chmurowych do produkcji. Oto jak można go używać w połączeniu z AWS i Azure:

Integracja z usługami w chmurze

1. Przepływ pracy w zakresie rozwoju i wdrażania: Użytkownicy mogą wykorzystywać iskrę DGX do opracowania, dostosowania i przetestowania modeli AI. Po przygotowaniu modeli można je przesłać na platformy chmurowe, takie jak AWS lub Azure w celu wdrożenia i wnioskowania na dużą skalę. Takie podejście pozwala programistom wydajną pracę w lokalnym środowisku przed zwiększeniem skali w chmurze.

2. Nvidia DGX Cloud: Chociaż sam DGX Spark nie jest usługą chmurową, NVIDIA oferuje platformę chmurową DGX, która jest dostępna w AWS, Azure i innych dostawcach chmur. DGX Cloud zapewnia skalowalny dostęp do zaawansowanych procesorów graficznych NVIDIA, umożliwiając użytkownikom szkolenie i wdrażanie modeli AI w chmurze. Podczas gdy DGX Spark jest przeznaczony do rozwoju lokalnego, chmura DGX może być używana do obciążeń AI opartych na chmurze.

3. Integracja AWS: AWS oferuje różne narzędzia i usługi rozwoju sztucznej inteligencji, takie jak Amazon Sagemaker do wdrażania modelu i partia AWS do wnioskowania partii. Użytkownicy mogą tworzyć modele na DGX Spark, a następnie wdrażać je przy użyciu punktów końcowych Sagemaker do wnioskowania w czasie rzeczywistym. Ponadto AWS zapewnia skalowalne rozwiązania pamięci, takie jak Amazon S3, które mogą być używane do przechowywania i zarządzania dużymi zestawami danych.

4. Integracja Azure: Azure zapewnia podobne możliwości z Azure ML do wdrażania modelu i usługą Azure Kubernetes (AKS) do skalowalnego zarządzania modelem. Użytkownicy mogą opracowywać modele lokalnie na DGX Spark, a następnie wdrażać je na Azure w celu produkcji, wykorzystując skalowalne rozwiązania magazynowe Azure, takie jak pamięć Blob Azure.

Podsumowując, podczas gdy DGX Spark nie jest bezpośrednio zintegrowana z AWS lub Azure, uzupełnia te platformy chmurowe, umożliwiając użytkownikom opracowywanie i dostosowanie modeli AI lokalnie przed wdrożeniem ich do chmury w celu produkcji i wnioskowania na dużą skalę.

Cytaty:
[1] https://www.thheverge.com/news/631957/nvidia-dgx-spark-station-grace-blackwell-ai-supercomputers-gtc
[2] https://www.DataCenterDynamics.com/en/news/nvidia-dgx-floud-w-ow-avaailable-via-aws/
[3] https://www.constellationr.com/blog-news/insights/nvidia-lounches-dgx-spark-dgx-station-personal-ai-supercomputers
[4] https://www.aquasec.com/cloud-native-academy/cspm/ai-workloads/
[5] https://docs.aws.amazon.com/pdfs/prescriptive-guidance/latest/tuning-aws-glue-for-apache-park/tuning-aws-glue-for-apache-spark.pdf
[6] https://www.pcmag.com/news/what-is-nvidias-dgx-station-a-new-specialized-desktop-line-for-ai-work
[7] https://docs.nvidia.com/dgx-vloud/run-ai/latest/appendix.html
[8] https://blogs.nvidia.com/blog/aws-reinvent-ai-robotics-quantum-software/
[9] https://page.adn.de/hubfs/25042371/herstelrseiten/nvidia/download/virtualisierung/nvidia%20ai%20enterprise%20licensing-guide.pdf?hslang=de
[10] https://www.bigdatawire.com/2024/12/11/nvidia-toutouts-time-to-first--with-dgx-bloud-on-aws/
[11] https://nvidianews.nvidia.com/news/nvidia-announces-dgx-spark-anddgx-station-personal-ai-computers