Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Jakie są kluczowe różnice w przepustowości pamięci między stacją DGX a poprzednimi modelami DGX


Jakie są kluczowe różnice w przepustowości pamięci między stacją DGX a poprzednimi modelami DGX


Stacja NVIDIA DGX i poprzednie modele DGX, takie jak stacja DGX A100 i starsza stacja DGX z GPU TESLA V100, wykazują znaczące różnice w przepustowości pamięci i ogólnej architekturze.

DGX Station (nowy model)

Nowa stacja DGX jest wyposażona w GB300 Grace Blackwell Ultra Desktop Superchip, który obejmuje 72-rdzeniowy procesor Grace i Blackwell Ultra GPU. Ten system ma do 288 GB pamięci GPU HBM3E i do 496 GB pamięci procesora LPDDR5X. Przepustowość pamięci dla pamięci GPU nie jest wyraźnie określona pod względem GB/S, ale system obsługuje do 8 TB/s przepustowości pamięci, która jest znacznie wyższa niż poprzednie modele. Pasmo pamięci CPU wynosi do 396 GB/s ** [5] [8].

DGX Station A100

Stacja DGX A100 wykorzystuje cztery GPU NVIDIA A100 SXM4, każdy z 40 GB lub 80 GB pamięci HBM2. Podczas gdy specyficzna przepustowość pamięci dla tego modelu nie jest szczegółowa, GPU A100 są znane z wysokiej przepustowości pamięci, zwykle około 1555 GB/s na GPU dla pamięci HBM2, która wynosiłaby do około 6220 GB/s dla całego systemu [10].

DGX Station z GPU Tesla V100

Starszy model stacji DGX z czterema GPU TESLA V100 ma 16 GB pamięci HBM2 na GPU, łącznie 64 GB pamięci GPU. Przepustowość pamięci dla każdego GPU V100 wynosi 900 GB/s, co powoduje całkowitą przepustowość pamięci GPU wynoszącą 3,6 TB/s. Ponadto system obejmuje 256 GB pamięci systemowej DDR4, ale jego przepustowość nie jest tak wysoka jak pamięć GPU [2] [9].

Kluczowe różnice

- Rodzaj pamięci i przepustowość: Nowa stacja DGX wykorzystuje HBM3E do pamięci GPU, oferując znacznie wyższą przepustowość w porównaniu z HBM2 stosowanym w starszych modelach. Pasmo pamięci CPU jest również ulepszone w zależności od LPDDR5X.
- Architektura: Nowa stacja DGX integruje procesor Grace z Blackwell Ultra GPU, zapewniając bardziej spójną i wydajną architekturę dla obciążeń AI w porównaniu z poprzednimi modelami.
- Skalowalność: Nowa stacja DGX została zaprojektowana do obsługi bardziej rozległych obciążeń AI z wyższą pojemnością pamięci i szybszymi połączeniami, takimi jak NVLink-C2c, która oferuje siedem razy większą przepustowość PCIE Gen 5 [5] [8].

Cytaty:
[1] https://www.reddit.com/r/localllama/comments/1jedy17/nvidia_digits_specs_release_and_renamed_to_dgx/
[2] https://images.nvidia.com/content/newsletters/email/pdf/dgx-station-wp.pdf
[3] https://opentools.ai/news/nvidia-unleashes-the-future-with-personal-ai-supercomputers
[4] https://www.youtube.com/watch?v=KRBH0VON-2A
[5] https://www.notebookcheck.net/nvidia-unveils-dgx-station-desktop-ai-supercomputer-with-72-core-cpu-andblackwell-ultra-gpu.981669.0.html
[6] https://docs.nvidia.com/dgx/dgxa100-user-guide/introduction-to-dgxa100.html
[7] https://www.techpowerup.com/forums/threads/nvidia-announces-dgx-spark-and-dgx-station-personal-ai-computers.334300/
[8] https://www.nvidia.com/en-us/products/workstations/dgx-station/
[9] https://xenon.com.au/product/nvidia-dgx-station/
[10] https://mcomputers.cz/en/products-and-services/nvidia/dgx-systems/nvidia-dgx-station-a100/