La station NVIDIA DGX et les modèles DGX précédents, tels que la station DGX A100 et l'ancienne station DGX avec des GPU Tesla V100, présentent des différences significatives dans la bande passante de mémoire et l'architecture globale.
Station
DGX (nouveau modèle)
La nouvelle station DGX est équipée de la superchip GB300 Grace Blackwell Ultra Desktop, qui comprend un CPU Grace à 72 cœurs et un GPU Blackwell Ultra. Ce système comprend jusqu'à 288 Go de mémoire GPU HBM3E et jusqu'à 496 Go de mémoire CPU LPDDR5X. La bande passante de mémoire pour la mémoire GPU n'est pas explicitement indiquée en termes de GB / s, mais le système prend en charge jusqu'à 8 To / s de bande passante de mémoire, qui est significativement plus élevée que les modèles précédents. La bande passante de mémoire CPU est jusqu'à 396 Go / S ** [5] [8].DGX Station A100
La station DGX A100 utilise quatre GPU NVIDIA A100 SXM4, chacun avec 40 Go ou 80 Go de mémoire HBM2. Bien que la bande passante de mémoire spécifique pour ce modèle ne soit pas détaillée, les GPU A100 sont connus pour leur bande passante de mémoire élevée, généralement environ 1 555 Go / s par GPU pour la mémoire HBM2, qui totaliserait environ 6 220 Go / s pour l'ensemble du système [10].Station
DGX avec GPU Tesla V100
L'ancien modèle de station DGX avec quatre GPU Tesla V100 dispose de 16 Go de mémoire HBM2 par GPU, totalisant 64 Go de mémoire GPU. La bande passante de mémoire pour chaque GPU V100 est de 900 Go / s, ce qui donne une bande passante totale de mémoire GPU de 3,6 To / s. De plus, le système comprend 256 Go de mémoire système DDR4, mais sa bande passante n'est pas aussi élevée que la mémoire GPU [2] [9].Différences clés
- Type de mémoire et bande passante: la nouvelle station DGX utilise HBM3E pour la mémoire GPU, offrant une bande passante beaucoup plus élevée par rapport à HBM2 utilisé dans les modèles plus anciens. La bande passante de mémoire CPU est également améliorée avec LPDDR5X.- Architecture: La nouvelle station DGX intègre un processeur Grace avec un GPU Blackwell Ultra, offrant une architecture plus cohésive et efficace pour les charges de travail de l'IA par rapport aux modèles précédents.
- Évolutivité: la nouvelle station DGX est conçue pour prendre en charge les charges de travail IA plus étendues avec sa capacité de mémoire plus élevée et ses interconnexions plus rapides comme NVLink-C2C, qui offre sept fois la bande passante de PCIe Gen 5 [5] [8].
Citations:
[1] https://www.reddit.com/r/localllama/comments/1Jedy17/nvidia_digits_specs_relenty_and_renamed_to_dgx/
[2] https://images.nvidia.com/content/newsletters/email/pdf/dgx-station-wp.pdf
[3] https://opentools.ai/news/nvidia-unleashes-the-future-with-sersonal-ai-super-computerrs
[4] https://www.youtube.com/watch?v=krbh0von-2a
[5] https://www.notebookcheck.net/nvidia-unveils-dgx-station-desktop-ai-supercomputer-with-72-core-cpu-and-blackwell-ultra-gpu.981669.0.html
[6] https://docs.nvidia.com/dgx/dgxa100-user-guide/introduction-to-dgxa100.html
[7] https://www.techpowerup.com/forums/threads/nvidia-announs-dgx-spark-and-dgx-station-personal-ai-computers.334300/
[8] https://www.nvidia.com/en-us/products/workstations/dgx-station/
[9] https://xenon.com.au/product/nvidia-dgx-station/
[10] https://mcomputers.cz/en/products-and-services/nvidia/dgx-systems/nvidia-dgx-station-a100/