La stazione DGX NVIDIA e i precedenti modelli DGX, come la stazione DGX A100 e la vecchia stazione DGX con GPU Tesla V100, presentano differenze significative nella larghezza di banda della memoria e nell'architettura generale.
Stazione
dgx (nuovo modello)
La nuova stazione DGX è dotata della Superchip Desktop Ultra GB300 Grace Blackwell, che include una CPU Grace da 72 core e una GPU Ultra Blackwell. Questo sistema presenta fino a 288 GB di memoria GPU HBM3E e fino a 496 GB di memoria CPU LPDDR5X. La larghezza di banda della memoria per la memoria GPU non è esplicitamente dichiarata in termini di GB/s, ma il sistema supporta fino a 8 TB/s di larghezza di banda della memoria, che è significativamente più alto rispetto ai modelli precedenti. La larghezza di banda della memoria della CPU è fino a 396 GB/S ** [5] [8].stazione DGX A100
La stazione DGX A100 utilizza quattro GPU NVIDIA A100 SXM4, ciascuno con 40 GB o 80 GB di memoria HBM2. Sebbene la larghezza di banda di memoria specifica per questo modello non sia dettagliata, le GPU A100 sono note per la loro alta larghezza di banda della memoria, in genere circa 1.555 GB/s per GPU per la memoria HBM2, che sarebbe totale a circa 6.220 GB/s per l'intero sistema [10].Stazione
DGX con GPU Tesla V100
Il vecchio modello DGX Station con quattro GPU Tesla V100 presenta 16 GB di memoria HBM2 per GPU, per un totale di 64 GB di memoria GPU. La larghezza di banda di memoria per ciascuna GPU V100 è di 900 GB/s, risultando in una larghezza di banda di memoria GPU totale di 3,6 TB/s. Inoltre, il sistema include 256 GB di memoria del sistema DDR4, ma la sua larghezza di banda non è alta come la memoria GPU [2] [9].differenze chiave
- Tipo di memoria e larghezza di banda: la nuova stazione DGX utilizza HBM3E per la memoria GPU, offrendo una larghezza di banda significativamente più alta rispetto a HBM2 utilizzato nei modelli più vecchi. La larghezza di banda della memoria della CPU è anche migliorata con LPDDR5X.- Architettura: la nuova stazione DGX integra una CPU Grace con una GPU Ultra Blackwell, fornendo un'architettura più coesa ed efficiente per i carichi di lavoro AI rispetto ai modelli precedenti.
- Scalabilità: la nuova stazione DGX è progettata per supportare carichi di lavoro AI più estesi con la sua maggiore capacità di memoria e interconnessioni più veloci come NVLink-C2C, che offre sette volte la larghezza di banda di PCIe Gen 5 [5] [8].
Citazioni:
[1] https://www.reddit.com/r/localllama/comments/1jedy17/nvidia_digits_specs_released_and_renamed_to_dgx/
[2] https://images.nvidia.com/content/newsletters/email/pdf/dgx-station-wp.pdf
[3] https://opentools.ai/news/nvidia-unleashes-the-future-with-personal-ai-supercomputer
[4] https://www.youtube.com/watch?v=KRBH0von-2a
[5] https://www.notebookcheck.net/nvidia-unveils-dgx-desktop-ai-supercomputer-with-72-core-cpu-and-blackwell-ultra-gpu.981669.0.html
[6] https://docs.nvidia.com/dgx/dgxa100-user-guide/introduction-to-dgxa100.html
[7] https://www.techpowerup.com/forums/threads/nvidia-announces-announces-spark-and-dgx-station-personal-ai-computer.334300/
[8] https://www.nvidia.com/en-us/products/workstations/dgx-station/
[9] https://xenon.com.au/product/nvidia-dgx-station/
[10] https://mcomputer.cz/en/products-andservices/nvidia/dgx-systems/nvidia-dgx-station-a100/