Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Quali tecnologie specifiche contribuiscono alla larghezza di banda della memoria della stazione DGX


Quali tecnologie specifiche contribuiscono alla larghezza di banda della memoria della stazione DGX


La stazione Nvidia DGX raggiunge la sua impressionante larghezza di banda di memoria attraverso diverse tecnologie chiave:

1. Memoria HBM3E: la stazione DGX utilizza fino a 288 GB di memoria ad alta larghezza di banda 3E (HBM3E), che è un tipo di memoria impilata nota per la sua alta larghezza di banda e bassa latenza. Questa tecnologia di memoria è cruciale per fornire l'elevata larghezza di banda della memoria del sistema, raggiungendo fino a 8 TB/s [1] [7] [8].

2. Memoria LPDDR5X: oltre a HBM3E, la stazione DGX supporta fino a 496 GB di memoria LPDDR5X, che è un tipo di DRAM a bassa potenza progettata per applicazioni ad alta larghezza di banda. Questa memoria contribuisce allo spazio di memoria coerente complessivo del sistema di 784 GB e fornisce una larghezza di banda di 396 GB/s [1] [8].

3. Interconnect NVLink-C2C: la stazione DGX impiega la tecnologia di interconnessione NVLink-C2C, che consente un modello di memoria coerente tra la CPU e la GPU. Questa tecnologia migliora significativamente la larghezza di banda di memoria consentendo il trasferimento di dati senza soluzione di continuità tra la CPU e la GPU, risolvendo uno dei principali colli di bottiglia nei carichi di lavoro di sviluppo dell'IA [2] [4].

4. Grace CPU e Blackwell Ultra GPU: il sistema è alimentato da una CPU Grace e una GPU Ultra Blackwell, entrambi progettati per ottimizzare le prestazioni di intelligenza artificiale. La combinazione di questi componenti con l'interconnessione NVLink-C2C garantisce una comunicazione e l'elaborazione dei dati efficienti, contribuendo ulteriormente all'elevata larghezza di banda della memoria del sistema [1] [2].

Queste tecnologie consentono collettivamente alla stazione DGX di fornire una notevole larghezza di banda della memoria, rendendolo adatto per le attività di addestramento dell'IA e inferenze che in precedenza richiedevano risorse del data center.

Citazioni:
[1] https://www.theregister.com/2025/03/18/gtc_frame_nvidias_budget_blackwell/
[2] https://www.stocktitan.net/news/nvda/nvidia-announces-announces-spark-and-dgx-station-personal-ai-vg4pfhn7jedk.html
[3] https://images.nvidia.com/content/newsletters/email/pdf/dgx-station-wp.pdf
[4] https://investor.nvidia.com/news/press-release-details/2025/nvidia-announces-announces-spark-and-dgx-station-personal-ai-computer/default.aspx
[5] https://www.youtube.com/watch?v=KRBH0von-2a
[6] https://www.skyblue.de/uploads/datasheets/nvidia_twp_dgx_a100_system_architecture.pdf
[7] https://www.reddit.com/r/localllama/comments/1jee2b2/nvidia_dgx_spark_project_digits_specs_are_out/
[8] https://www.reddit.com/r/hardware/comments/1jej1uk/nvidia_announces_dgx_spark_and_dgx_station/
[9] https://www.robusthpc.com/wp-content/uploads/2021/11/nvidia-dgx-station-a100-system-architecture-white-paper_publy.pdf