2022年4月27日星期三

NVIDIA H100

 


GPU 大廠輝達 (NVIDIA)  推出首款採用 Hopper 架構的 GPU 產品 NVIDIA H100,這款 GPU 封裝了 800 億個電晶體,是全球最大且效能最強大的加速器,具突破性的功能,例如革命性 Transformer Engine 及具高度擴展性 NVLink 互連技術,可用於推動極大規模的 AI 語言模型、深度推薦系統、基因組學和複雜的數碼孿生等領域的發展。

採用 Hopper 架構的 H100 GPU 為加速大規模 AI 及高效能運算樹立了新標準,並帶來六項突破性創新:

1.   H100 擁有 800 億個電晶體,採用台積電 4N 製程、專為滿足 NVIDIA 加速運算需求而設計,在加速 AI、高效能運算、記憶體頻寬、互連和通訊方面具有重大進展,包括每秒近 5TB 外部連接速度。H100 是首款支援 PCIe Gen5 及首款使用 HBM3 GPU 產品,提供每秒 3TB 記憶體頻寬。20 H100 GPU 足以支撐全世界的網絡流量,可以運行先進的推薦系統和大型語言模型,即時使用各項數據進行推論。

2.   Transformer 已是自然語言處理的首選標準模型,是史上最重要的深度學習模型之一。相比前一代產品,H100 加速器的 Transformer Engine 能夠將這些網絡速度提高六倍,又不失其精度。

3.   多執行個體 GPU (Multi-Instance GPUMIG) 技術可以將一個 GPU 分割成七個較小、完全隔離的執行個體以處理各類工作。Hopper 架構在雲端環境為每個 GPU 執行個體提供安全的多租戶配置,將 MIG 的能力較前一代擴大高達七倍。

4.   H100 是全球首款具有機密運算能力的加速器,可以在處理 AI 模型和客戶數據時加以保護。對於醫療看護和金融服務等對隱私極為敏感的產業,在進行聯邦學習時同樣能運用機密運算,在共享的雲端基礎設施上也同樣可行。

5.   為加快最大型 AI 模型的運作速度,以 NVLink 配備全新的外部 NVLink 交換器,將 NVLink 變成伺服器以外的垂直擴展網絡,相比使用 NVIDIA HDR Quantum InfiniBand 的前一代產品,能以超過九倍的頻寬連接多達 256 H100 GPU

6.   與使用 CPU 相比,全新 DPX 指令將用於眾多演算法 (包括路線最佳化及基因組學) 的動態規畫執行速度加快高達 40 倍,與使用前一代的 GPU 相比,速度加快了七倍,包括為動態倉庫環境中的自主機械人車隊尋找最佳路線的 Floyd-Warshall 演算法,以及用於 DNA 和蛋白質分類及折疊的序列比對 Smith-Waterman 演算法。


H100 的多項技術創新擴大了 NVIDIA AI 推論和訓練的領先地位,使 NVIDIA 能夠利用巨大 AI 模型做到即時和沉浸式應用。H100 讓聊天機械人可以使用全球最強大的單體 transformer 語言模型 Megatron 530B,傳輸量超過前一代產品達 30 倍,同時滿足即時對話式 AI 所需的次秒級延遲。H100 同時讓研究人員和開發人員能夠訓練像是 Mixture of Experts 這類大規模模型,包含 3950 億個參數,能將速度提高達九倍,將訓練時間從過去所需的數週減少到數日便能完成。

H100 預計將有 SXM PCIe 兩種規格,以滿足各種伺服器的設計要求,同時推出一款融合加速器,將 H100 GPU 搭配 NVIDIA ConnectX-7 400Gb/s InfiniBand Ethernet SmartNIC,而 H100可以部署在各類型數據中心內,包括企業內部、雲端、混合雲和邊緣。預計今年第三季透過全球各大雲端服務供應商及電腦製造商供貨,也可以直接向NVIDIA購買。




沒有留言:

發佈留言

俄羅斯方塊能治療成癮和 PTSD

最近醫學研究證實,適當玩《俄羅斯方塊》對大腦有益。在上世紀 90 年代的研究中,就有科學家發現,初次玩《俄羅斯方塊》的人,其大腦葡萄糖代謝率( GMR )有顯著提高,意味著在玩遊戲時大腦消耗的能量增加。持續玩 4 至 8 星期後,這些人的 GMR 跌回原本水平,而遊戲分數則...