Az NVIDIA DGX Spark, a személyes AI szuperszámítógép, az AI modellek helyben történő futtatására tervezték. Noha nem közvetlenül integrálódik a felhőalapú szolgáltatásokhoz, mint például az AWS vagy az Azure a telepítéshez, a felhasználók modelleket fejleszthetnek és finomíthatnak a DGX Spark modelljeire, majd telepíthetik azokat a felhőplatformokba a termeléshez. Így lehet felhasználni az AWS -vel és az Azure -val együtt:
Integráció a felhőalapú szolgáltatásokkal
1. Fejlesztési és telepítési munkafolyamat: A felhasználók kihasználhatják a DGX Spark fejlesztését, finomhangolását és tesztelését az AI modellek helyben. Miután a modellek készen állnak, feltölthetők olyan felhőplatformokra, mint az AWS vagy az Azure a nagyszabású telepítéshez és következtetésekhez. Ez a megközelítés lehetővé teszi a fejlesztők számára, hogy hatékonyan működjenek a helyi környezetben, mielőtt a felhőben méreteznének.
2. NVIDIA DGX Cloud: Noha maga a DGX Spark nem felhőszolgáltatás, az NVIDIA a DGX Cloud Platformot kínálja, amely elérhető az AWS, Azure és más felhőszolgáltatókon. A DGX Cloud skálázható hozzáférést biztosít az NVIDIA fejlett GPU -jához, lehetővé téve a felhasználók számára, hogy az AI modelleket kiképezzék és telepítsék a felhőbe. Míg a DGX Spark a helyi fejlődésre vonatkozik, a DGX Cloud felhasználható felhőalapú AI munkaterhelésekhez.
3. AWS integráció: Az AWS különféle eszközöket és szolgáltatásokat kínál az AI fejlesztéshez, például az Amazon Sagemaker modellek telepítéséhez és AWS -tétel a kötegek következtetéseihez. A felhasználók modelleket fejleszthetnek ki a DGX Spark-on, majd a Sagemaker végpontok segítségével telepíthetik őket valós idejű következtetés céljából. Ezenkívül az AWS olyan méretezhető tárolási megoldásokat kínál, mint az Amazon S3, amely felhasználható a nagy adatkészletek tárolására és kezelésére.
4. Azure integráció: Az Azure hasonló képességeket biztosít az Azure ML -vel a modell telepítéséhez és az Azure Kubernetes Service (AK) a skálázható modellkezeléshez. A felhasználók a DGX Spark -on helyben fejleszthetnek modelleket, majd telepíthetik azokat az Azure -ba a termeléshez, kihasználva az Azure méretezhető tárolási megoldásait, mint például az Azure Blob Storage.
Összefoglalva: míg a DGX Spark nincs közvetlenül integrálva az AWS-hez vagy az Azure-hez, kiegészíti ezeket a felhőplatformokat azáltal, hogy lehetővé teszi a felhasználók számára, hogy az AI modelleket helyben fejlesszék és finomítsák, mielőtt a felhőbe telepítik őket nagyszabású gyártáshoz és következtetésekhez.
Idézetek:
[1] https://www.theverge.com/news/631957/nvidia-dgx-park-station-grace-lackwell-ai-supputers-gtc
[2] https://www.datacenterdynamics.com/en/news/nvidia-dgx-cloud-now-aviable-via-aws/
[3] https://www.constellationr.com/blog-news/insights/nvidia-launches-dgx-spark-dgx-station-personal-ai-supercomputer
[4] https://www.aquasec.com/cloud-native-academy/csspm/ai-workloads/
[5] https://docs.aws.amazon.com/pdfs/prescriptive-guidance/latest/tuning-aws-glue-for-apache-spark/tuning-aws-por-apache-park.pdf
[6] https://www.pcmag.com/news/what-is-nvidias-dgx-station-a-new-specialized-desktop-for-ai-work
[7] https://docs.nvidia.com/dgx-cloud/run-ai/latest/appendix.html
[8] https://blogs.nvidia.com/blog/aws-reinvent-ai-robotics-quantum-software/
[9] https://page.adn.de/hubfs/25042371/herstellerseiten/nvidia/download/Virtualisierung/nvidia%20Ai%20enterPrise%20licensing-guide.pdf?hslang=de
[10] https://www.bigdatawire.com/2024/12/11/nvidia-touts-lower-time-to-first-train-with-dgx-cloud-on-ws/
[11] https://nvidianews.nvidia.com/news/nvidia-announdes-dgx-park-and-dgx-station-personal-ai-computers