A estação DGX NVIDIA e os modelos anteriores DGX, como a estação DGX A100 e a estação DGX mais antiga com GPUs Tesla V100, exibem diferenças significativas na largura de banda de memória e arquitetura geral.
DGX Station (novo modelo)
A nova estação DGX está equipada com o GB300 Grace Blackwell Ultra Desktop Superchip, que inclui uma CPU GRACE de 72 núcleos e uma Blackwell Ultra GPU. Este sistema possui até 288 GB de memória HBM3E GPU e até 496 GB de memória CPU LPDDR5X. A largura de banda da memória para a memória da GPU não é explicitamente declarada em termos de GB/S, mas o sistema suporta até 8 TB/s de largura de banda de memória, o que é significativamente maior que os modelos anteriores. A largura de banda de memória da CPU é de até 396 Gb/S ** [5] [8].Estação DGX A100
A estação DGX A100 usa quatro GPUs NVIDIA A100 SXM4, cada um com 40 GB ou 80 GB de memória HBM2. Embora a largura de banda de memória específica para este modelo não seja detalhada, as GPUs A100 são conhecidas por sua alta largura de banda de memória, normalmente em torno de 1.555 GB/s por GPU para a memória HBM2, que totalizaria aproximadamente 6.220 GB para todo o sistema [10].
Estação DGX com Tesla V100 GPUS
O modelo mais antigo da estação DGX com quatro GPUs Tesla V100 possui 16 GB de memória HBM2 por GPU, totalizando 64 GB de memória da GPU. A largura de banda da memória para cada GPU V100 é de 900 GB/s, resultando em uma largura de banda de memória GPU total de 3,6 TB/s. Além disso, o sistema inclui 256 GB de memória do sistema DDR4, mas sua largura de banda não é tão alta quanto a memória da GPU [2] [9].
Diferenças -chave
- Tipo de memória e largura de banda: a nova estação DGX usa o HBM3E para memória da GPU, oferecendo largura de banda significativamente maior em comparação com o HBM2 usado em modelos mais antigos. A largura de banda de memória da CPU também é aprimorada com LPDDR5X.- Arquitetura: A nova estação DGX integra uma CPU GRACE com uma Blackwell Ultra GPU, fornecendo uma arquitetura mais coesa e eficiente para cargas de trabalho de IA em comparação com modelos anteriores.
- Escalabilidade: A nova estação DGX foi projetada para suportar cargas de trabalho de IA mais extensas com sua maior capacidade de memória e interconexões mais rápidas como o NVLink-C2C, que oferece sete vezes a largura de banda do PCIE Gen 5 [5] [8].
Citações:
[1] https://www.reddit.com/r/localllama/comments/1jedy17/nvidia_digits_specs_released_and_renamed_to_dgx/
[2] https://images.nvidia.com/content/newsletters/email/pdf/dgx-station-wp.pdf
[3] https://opentools.ai/news/nvidia-unleases-the-future-with-personal-ai-supercomputers
[4] https://www.youtube.com/watch?v=krbh0von-2a
[5] https://www.notebookcheck.net/nvidia-unveils-dgx-station-desktop-ai-supercomputer-with-72-core-cpu-e blackwell-ultra-gpu.981669.0.html
[6] https://docs.nvidia.com/dgx/dgxa100-user-guide/introduction-to-dgxa100.html
[7] https://www.techpowerup.com/forums/threads/nvidia-announces-dgx-spark-and-dgx-station-personal-ai-computers.334300/
[8] https://www.nvidia.com/en-us/products/workstations/dgx-station/
[9] https://xenon.com.au/product/nvidia-dgx-station/
[10] https://mcomputers.cz/en/products-and-services/nvidia/dgx-systems/nvidia-dgx-station-a100/