Nvidia DGXステーションは、いくつかの重要なテクノロジーを通じて印象的なメモリ帯域幅を達成しています。
1。HBM3Eメモリ:DGXステーションは、最大288GBの高帯域幅メモリ3E(HBM3E)を利用します。このメモリテクノロジーは、システムの高いメモリ帯域幅を提供し、最大8 Tb/s [1] [7] [8]に達するために重要です。
2。LPDDR5Xメモリ:HBM3Eに加えて、DGXステーションは最大496GBのLPDDR5Xメモリをサポートします。このメモリは、システムの全体的なコヒーレントメモリスペース784GBに寄与し、396 GB/s [1] [8]の帯域幅を提供します。
3。NVLINK-C2C Interconnect:DGXステーションは、CPUとGPUの間にコヒーレントなメモリモデルを可能にするNVLink-C2C相互接続テクノロジーを採用しています。このテクノロジーは、CPUとGPU間のシームレスなデータ転送を可能にすることにより、メモリ帯域幅を大幅に強化し、AI開発ワークロードの主要なボトルネックの1つを解決します[2] [4]。
4. Grace CPUおよびBlackwell Ultra GPU:システムは、AIパフォーマンスを最適化するように設計されているGrace CPUとBlackwell Ultra GPUを搭載しています。これらのコンポーネントとNVLINK-C2C Interconnectの組み合わせにより、効率的なデータ通信と処理が保証され、システムの高いメモリ帯域幅にさらに貢献します[1] [2]。
これらのテクノロジーにより、DGXステーションはかなりのメモリ帯域幅を提供できるようになり、以前はデータセンターリソースを必要としていたAIトレーニングと推測タスクを要求するのに適しています。
引用:
[1] https://www.theregister.com/2025/03/18/gtc_frame_nvidias_budget_blackwell/
[2] https://www.stocktitan.net/news/nvda/nvidia-Announces-dgx-spark-and-dgx-station-cersal-ai-vg4pfhn7jedk.html
[3] https://images.nvidia.com/content/newsletters/email/pdf/dgx-station-wp.pdf
[4] https://investor.nvidia.com/news/press-release-details/2025/nvidia-Announces-dgx-and-dgx-station-celsal-ai-computers/default.aspx
[5] https://www.youtube.com/watch?v=krbh0von-2a
[6] https://www.skyblue.de/uploads/datasheets/nvidia_twp_dgx_a100_system_architecture.pdf
[7] https://www.reddit.com/r/localllama/comments/1jee2b2/nvidia_dgx_spark_projits_digits_specs_are_out/
[8] https://www.reddit.com/r/hardware/comments/1jej1uk/nvidia_announces_dgx_spark_and_dgx_station/
[9] https://www.robustthpc.com/wp-content/uploads/2021/11/nvidia-dgx-station-a100-system-architecture-white-paper_published.pdf