Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Hva er de viktigste forskjellene i minnebåndbredden mellom DGX -stasjonen og tidligere DGX -modeller


Hva er de viktigste forskjellene i minnebåndbredden mellom DGX -stasjonen og tidligere DGX -modeller


NVIDIA DGX -stasjonen og tidligere DGX -modeller, for eksempel DGX -stasjonen A100 og den eldre DGX -stasjonen med Tesla V100 GPUer, viser betydelige forskjeller i minnebåndbredde og generell arkitektur.

DGX stasjon (ny modell)

Den nye DGX-stasjonen er utstyrt med GB300 Grace Blackwell Ultra Desktop Superchip, som inkluderer en 72-kjerne Grace CPU og en Blackwell Ultra GPU. Dette systemet har opptil 288 GB HBM3E GPU -minne og opptil 496 GB LPDDR5X CPU -minne. Minnebåndbredden for GPU -minnet er ikke eksplisitt angitt i form av GB/s, men systemet støtter opptil 8 TB/s minnebåndbredde, som er betydelig høyere enn tidligere modeller. CPU -minnebåndbredden er opptil 396 GB/s ** [5] [8].

DGX stasjon A100

DGX -stasjonen A100 bruker fire NVIDIA A100 SXM4 GPUer, hver med enten 40 GB eller 80 GB HBM2 -minne. Mens den spesifikke minnebåndbredden for denne modellen ikke er detaljert, er A100 GPUer kjent for sin høye minnebåndbredde, typisk rundt 1.555 GB/s per GPU for HBM2 -minnet, som vil total til omtrent 6.220 GB/s for hele systemet [10].

DGX stasjon med Tesla V100 GPUer

Den eldre DGX -stasjonsmodellen med fire Tesla V100 GPU -er har 16 GB HBM2 -minne per GPU, til sammen 64 GB GPU -minne. Minnebåndbredden for hver V100 GPU er 900 GB/s, noe som resulterer i en total GPU -minnebåndbredde på 3,6 tb/s. I tillegg inkluderer systemet 256 GB DDR4 -systemminne, men båndbredden er ikke så høy som GPU -minnet [2] [9].

viktige forskjeller

- Minnetype og båndbredde: Den nye DGX -stasjonen bruker HBM3E for GPU -minne, og tilbyr betydelig høyere båndbredde sammenlignet med HBM2 brukt i eldre modeller. CPU -minnebåndbredden forbedres også med LPDDR5X.
- Arkitektur: Den nye DGX -stasjonen integrerer en Grace CPU med en Blackwell Ultra GPU, og gir en mer sammenhengende og effektiv arkitektur for AI -arbeidsmengder sammenlignet med tidligere modeller.
- Skalerbarhet: Den nye DGX-stasjonen er designet for å støtte mer omfattende AI-arbeidsmengder med sin høyere minnekapasitet og raskere sammenkoblinger som NVLink-C2C, som tilbyr syv ganger båndbredden til PCIe Gen 5 [5] [8].

Sitasjoner:
[1] https://www.reddit.com/r/localllama/comments/1jedy17/nvidia_digits_specs_release_and_renamed_to_dgx/
[2] https://images.nvidia.com/content/newsletters/email/pdf/dgx-station-wp.pdf
[3] https://opentools.ai/news/nvidia-unleashesh-the-future-with-personal-ai-supercomputers
[4] https://www.youtube.com/watch?v=krbh0von-2a
[5] https://www.notebookcheck.net/nvidia-unvels-dgx-station-desktop-ai-supercomputer-with-72-core-cpu-andhtml
[6] https://docs.nvidia.com/dgx/dgxa100-bruker-guide/introduction-to-dgxa100.html
[7] https://www.techpowerup.com/forums/threads/nvidia-announces-dgx-spark-and-dgx-station-personal-ai-computers.334300/
[8] https://www.nvidia.com/en-us/products/workstations/dgx-station/
[9] https://xenon.com.au/product/nvidia-dgx-station/
[10] https://mcomputers.cz/no/products-and-services/nvidia/dgx-systems/nvidia-dgx-station-a100/