加速計算的數量級飛躍。
通過 NVIDIA H100 Tensor Core GPU,在每個工作負載中實現出色性能、可擴展性和安全性。使用 NVIDIA? NVLink? Switch 系統,可連接多達 256 個 H100 來加速百億億級 (Exascale) 工作負載,另外可通過專用的 Transformer 引擎來處理萬億參數語言模型。與上一代產品相比,H100 的綜合技術創新可以將大型語言模型的速度提高 30 倍,從而提供業界領先的對話式 AI。

通過與NVIDIA NVSwitch完全連接,第三代NVIDIA NVSwitch基于NVLink的高級通信功能,為計算密集型工作負載提供了更高的帶寬和更短的延遲。每個NVSwitch配備了64個NVLink端口,支持NVIDIA可擴展分層聚合減少協議(SHARP)的引擎,用于網絡內減少和多播加速。
利用NVLink交換機系統的擴展性,可以按比例放大以訓練萬億參數模型。通過NVSwitch,NVLink連接可以跨節點擴展,創造出高帶寬、多節點GPU集群,實現了無縫連接,使得數據中心大小的GPU集成成為可能。通過在服務器外部添加第二層NVLink交換機,未來的NVLink交換機系統可以連接多達256個GPU,提供高達57.6TB/s的所有到所有帶寬,從而使得快速處理甚至最大的人工智能作業成為可能。
通過 NVIDIA H100 Tensor Core GPU,在每個工作負載中實現出色性能、可擴展性和安全性。使用 NVIDIA? NVLink? Switch 系統,可連接多達 256 個 H100 來加速百億億級 (Exascale) 工作負載,另外可通過專用的 Transformer 引擎來處理萬億參數語言模型。與上一代產品相比,H100 的綜合技術創新可以將大型語言模型的速度提高 30 倍,從而提供業界領先的對話式 AI。
A800 是整個 NVIDIA 數據中心解決方案的一部分,該解決方案由硬件、網絡、軟件、庫以及 NGC? 中經優化的 AI 模型和應用等疊加而成。它為數據中心提供了強大的端到端 AI 和 HPC 平臺,讓研究人員能夠快速交付真實的結果,并且大規模地將解決方案部署到生產環境中。