NVIDIA DGX Spark ซึ่งเป็นซูเปอร์คอมพิวเตอร์ AI ส่วนตัวได้รับการออกแบบมาเพื่อเรียกใช้โมเดล AI ในสภาพแวดล้อมเดสก์ท็อป แม้ว่าจะไม่ได้รวมเข้ากับบริการคลาวด์โดยตรงเช่น AWS หรือ Azure สำหรับการปรับใช้ แต่ผู้ใช้สามารถพัฒนาและปรับแต่งโมเดลบน DGX Spark จากนั้นปรับใช้กับแพลตฟอร์มคลาวด์สำหรับการผลิต นี่คือวิธีการใช้ร่วมกับ AWS และ Azure:
การรวมเข้ากับบริการคลาวด์
1. การพัฒนาและการปรับใช้เวิร์กโฟลว์: ผู้ใช้สามารถใช้ประโยชน์จาก DGX Spark เพื่อพัฒนาปรับแต่งและทดสอบโมเดล AI ในพื้นที่ เมื่อโมเดลพร้อมแล้วพวกเขาสามารถอัปโหลดไปยังแพลตฟอร์มคลาวด์เช่น AWS หรือ Azure สำหรับการปรับใช้ขนาดใหญ่และการอนุมาน วิธีการนี้ช่วยให้นักพัฒนาสามารถทำงานได้อย่างมีประสิทธิภาพในสภาพแวดล้อมท้องถิ่นก่อนที่จะปรับขนาดในคลาวด์
2. NVIDIA DGX Cloud: แม้ว่า DGX Spark นั้นไม่ใช่บริการคลาวด์ NVIDIA เสนอแพลตฟอร์ม DGX Cloud ซึ่งมีอยู่ใน AWS, Azure และผู้ให้บริการคลาวด์อื่น ๆ DGX Cloud ให้การเข้าถึง GPU ขั้นสูงของ NVIDIA ที่ปรับขนาดได้ทำให้ผู้ใช้สามารถฝึกอบรมและปรับใช้โมเดล AI ในคลาวด์ ในขณะที่ DGX Spark มีไว้สำหรับการพัฒนาในท้องถิ่น DGX Cloud สามารถใช้สำหรับเวิร์กโหลด AI บนคลาวด์
3. การรวม AWS: AWS นำเสนอเครื่องมือและบริการต่าง ๆ สำหรับการพัฒนา AI เช่น Amazon Sagemaker สำหรับการปรับใช้แบบจำลองและชุด AWS สำหรับการอนุมานแบทช์ ผู้ใช้สามารถพัฒนาโมเดลบน DGX Spark จากนั้นปรับใช้โดยใช้จุดสิ้นสุดของ Sagemaker สำหรับการอนุมานแบบเรียลไทม์ นอกจากนี้ AWS ยังให้บริการโซลูชันการจัดเก็บที่ปรับขนาดได้เช่น Amazon S3 ซึ่งสามารถใช้ในการจัดเก็บและจัดการชุดข้อมูลขนาดใหญ่
4. Azure Integration: Azure ให้ความสามารถที่คล้ายกันกับ Azure ML สำหรับการปรับใช้แบบจำลองและ Azure Kubernetes Service (AKS) สำหรับการจัดการแบบจำลองที่ปรับขนาดได้ ผู้ใช้สามารถพัฒนาโมเดลในพื้นที่บน DGX Spark จากนั้นนำไปใช้กับ Azure สำหรับการผลิตใช้ประโยชน์จากโซลูชันการจัดเก็บที่ปรับขนาดได้ของ Azure เช่น Azure Blob Storage
โดยสรุปในขณะที่ DGX Spark ไม่ได้รวมเข้ากับ AWS หรือ Azure โดยตรง แต่ก็เติมเต็มแพลตฟอร์มคลาวด์เหล่านี้โดยอนุญาตให้ผู้ใช้พัฒนาและปรับแต่งโมเดล AI ในพื้นที่ก่อนที่จะนำไปใช้กับคลาวด์สำหรับการผลิตและการอนุมานขนาดใหญ่
การอ้างอิง:
[1] https://www.theverge.com/news/631957/nvidia-dgx-spark-station-grace-blackwell-ai-supercomputers-gtc
[2] https://www.datacenterdynamics.com/en/news/nvidia-dgx-cloud-now-available-via-aws/
[3] https://www.constellationr.com/blog-news/insights/nvidia-launches-dgx-spark-dgx-station-personal-ai-supercomputers
[4] https://www.aquasec.com/cloud-native-academy/cspm/ai-workloads/
[5] https://docs.aws.amazon.com/pdfs/prescriptive-guidance/latest/tuning-aws-glue-for-apache-spark/tuning-aws-glue-for-apache-park.pdf
[6] https://www.pcmag.com/news/what-is-nvidias-dgx-station-a-new-specialized-desktop-line-for-ai-work
[7] https://docs.nvidia.com/dgx-cloud/run-ai/latest/appendix.html
[8] https://blogs.nvidia.com/blog/aws-reinvent-ai-robotics-quantum-software/
[9] https://page.adn.de/hubfs/25042371/herstellerseiten/nvidia/download/virtualisierung/nvidia%20ai%20Enerprise%20Licensing-guide.pdf?hslang=de
[10] https://www.bigdatawire.com/2024/12/11/nvidia-touts-lower-time-to-first-train-with-dgx-cloud-on-aws/
[11] https://nvidianews.nvidia.com/news/nvidia-announces-dgx-spark-and-dgx-station-personal-ai-computers