Le NVIDIA DGX Spark, un supercalculateur d'IA personnel, est conçu pour exécuter les modèles AI localement sur un environnement de bureau. Bien qu'il ne soit pas directement intégré aux services cloud comme AWS ou Azure pour le déploiement, les utilisateurs peuvent développer et affiner les modèles sur DGX Spark, puis les déployer sur des plates-formes cloud pour la production. Voici comment il peut être utilisé en conjonction avec AWS et Azure:
Intégration avec les services cloud
1. Développement et déploiement du flux de travail: Les utilisateurs peuvent tirer parti de l'étincelle DGX pour développer, affiner et tester les modèles AI localement. Une fois les modèles prêts, ils peuvent être téléchargés sur des plates-formes cloud comme AWS ou Azure pour un déploiement et une inférence à grande échelle. Cette approche permet aux développeurs de travailler efficacement dans un environnement local avant de se mettre à l'échelle dans le cloud.
2. NVIDIA DGX Cloud: Bien que DGX Spark lui-même ne soit pas un service cloud, NVIDIA propose la plate-forme DGX Cloud, qui est disponible sur AWS, Azure et d'autres fournisseurs de cloud. DGX Cloud offre un accès évolutif aux GPU avancés de NVIDIA, permettant aux utilisateurs de former et de déployer des modèles d'IA dans le cloud. Alors que DGX Spark est pour le développement local, DGX Cloud peut être utilisé pour les charges de travail AI basées sur le cloud.
3. AWS Intégration: AWS propose divers outils et services pour le développement de l'IA, comme Amazon Sagemaker pour le déploiement du modèle et le lot AWS pour l'inférence par lots. Les utilisateurs peuvent développer des modèles sur DGX Spark, puis les déployer à l'aide de points de terminaison SageMaker pour une inférence en temps réel. De plus, AWS fournit des solutions de stockage évolutives comme Amazon S3, qui peuvent être utilisées pour stocker et gérer de grands ensembles de données.
4. Intégration Azure: Azure fournit des capacités similaires avec Azure ML pour le déploiement du modèle et le service Azure Kubernetes (AKS) pour la gestion des modèles évolutifs. Les utilisateurs peuvent développer des modèles localement sur DGX Spark, puis les déployer sur Azure pour la production, en tirant parti des solutions de stockage évolutives d'Azure comme Azure Blob Storage.
En résumé, bien que le DGX Spark ne soit pas directement intégré à AWS ou Azure, il complète ces plates-formes cloud en permettant aux utilisateurs de développer et de régler les modèles AI localement avant de les déployer dans le cloud pour la production et l'inférence à grande échelle.
Citations:
[1] https://www.theverge.com/news/631957/nvidia-dgx-spark-station-grace-blackwell-ai-supercomputers-gtc
[2] https://www.datacenterdynynamics.com/en/news/nvidia-dgx-cloud-now-available-via-aws/
[3] https://www.nstellationr.com/blog-news/insights/nvidia-lonches-dgx-sker-dgx-station-personal-ai-superccomputers
[4] https://www.aquasec.com/cloud-native-academy/cspm/ai-workloads/
[5] https://docs.aws.amazon.com/pdfs/prescriptive-uidance/latest/tuning-aws-glue-for-apache-park/tuning-aws- Glue-for-apache-Sket.pdf
[6] https://www.pcmag.com/news/what-is-nvidias-dgx-station-a-new-specialized-desktop-line-for-ai-work
[7] https://docs.nvidia.com/dgx-cloud/run-ai/latest/appendix.html
[8] https://blogs.nvidia.com/blog/aws-reinvent-ai-robotics-quantum-software/
[9] https://page.adn.de/hubfs/25042371/herstellerseiten/nvidia/download/virtualisierung/nvidia%20ai%20enterprise%20licensing-guide.pdf?hslang=de
[10] https://www.bigdatawire.com/2024/12/11/nvidia-touts-lower-time-to-first-withwith-dgx-cloud-on-aws/
[11] https://nvidianews.nvidia.com/news/nvidia-annunces-dgx-spark-and-dgx-station-sersonal-ai-computers