熱門資訊> 正文
2023-05-02 23:20
摘要:5月2日消息,AI芯片大廠英偉達 (NVIDIA) 計算業務副總裁 Manuvir Das在參加美國當地時間5月1日由MIT Technology Review 舉行的 Future Compute 活動上,正式宣佈DGX H100系統開始出貨。
5月2日消息,AI芯片大廠英偉達(NVIDIA) 計算業務副總裁 Manuvir Das在參加美國當地時間5月1日由MIT Technology Review 舉行的 Future Compute 活動上,正式宣佈DGX H100系統開始出貨。客户將可以採用NVIDIA最新 AI 超級電腦提升製造、醫療照護、機器人等生成式AI應用需求。
NVIDIA表示,日本、厄瓜多和瑞典客户都將採用 NVIDIA DGX H100 系統,如 AI 工廠的生產數據,創建提供金融、醫療、法律、IT 和電信產業等基於 AI 洞見的服務,並致力協助產業轉型。比如,可以預測工廠設備老化程度,以提升效率。
比如Green Physics AI 系統,可將物體碳足跡、年齡和能源消耗等信息加入號稱制造業最大數據庫的 SORDI.ai,讓製造業者開發強大 AI 模型,並創建最佳化工廠和倉庫效率的數位孿生。使用 Green Physics AI,可為產品和零組件最佳化能源利用和減少 CO2 排放。
即使不是世界一流研究機構或 500 大企業,也可使用 DGX H100。很多新創公司已經啟用第一批生成式 AI 系統,駕馭生成式 AI 浪潮。倫敦和紐約的 Scissero 使用 GPT 驅動的聊天機器人提高法律流程效率,Scissero GPT 可起草法律文件,產生報告並做研究。德國 DeepL 使用多個 DGX H100 系統擴展提供客户幾十種語言翻譯服務,包括日本最大出版社 Nikkei。DeepL 最近推出 DeepL Write AI 寫作助理。
許多 DGX H100 系統也能促進醫療保健並改善療效。比如DGX H100已經成為東京 Tokyo-1 超級電腦的一部分,模擬加速藥物開發。日本最大企業之一的三井物產株式會社於2021年11月成立的新創AI公司Xeureka也採用了DGX H100系統。德國、以色列和美國醫院和學術醫療機構都是DGX H100 系統首批用户。
DGX H100系統搭載了8個最新的NVIDIA H100 GPU, 該GPU基於臺積電4nm工藝,CoWoS 2.5D晶圓級封裝,單個芯片集成了多達800億個晶體管(比上一代A100多了260億個),號稱世界上最先進的芯片。這8個 H100 GPU通過NVIDIA NVLink技術互連,再搭配兩顆PCIe 5.0 CPU處理器,可擁有總計6400億個晶體管、640GB HBM3顯存、24TB/s顯存帶寬。
性能方面,DGX H100系統的AI算力高達32PFlops(每秒3.2億億次),浮點算力FP64 480TFlops(每秒480萬億次),FP16 1.6PFlops(每秒1.6千萬億次),FP8 3.2PFlops(每秒3.2千億次),分別是上代DGX A100的3倍、3倍、6倍,而且新增支持網絡內計算,性能可達3.6TFlops。
DGX H100系統在 NVIDIA Base Command 上運行,后者是加速運算、儲存和網絡基礎設施並最佳化 AI 負載的套件。DGX H100 系統還包括 NVIDIA AI Enterprise 軟件,可加速數據科學流程,並簡化生成式 AI、計算機視覺等開發部署。DGX H100平臺還具高效能和高效率特性,與上一代的 DGX A100 相比,DGX H100 每 petaflop 運算力的能源效率提高了原來的2倍。
另外,使用 400 Gbps 超低延迟的 NVIDIA Quantum InfiniBand 還可將數百個 DGX H100 節點連線一臺 AI 超級電腦。
值得一提的是,爲了讓更多的中小企業用得起DGX H100系統,NVIDIA此前還推出了雲端人工智能專用的 NVIDIA DGX AI超級計算集羣DGX Cloud。
據介紹,每個DGX Cloud實例都具有8個H100或A100 80GB Tensor Core GPU,每個節點共有640GB GPU內存。使用NVIDIA Networking構建的高性能、低延迟結構確保工作負載可以跨互連繫統集羣擴展,允許多個實例充當一個巨大的GPU,以滿足高級AI訓練的性能要求。並配備了NVIDIA AI軟件,用户能夠按月租用這些計算資源,只需使用簡單的網絡瀏覽器即可訪問。這將消除在本地獲取、部署和管理基礎設施的成本,大大增加了AI能力獲取的便捷性。
NVIDIA將與雲服務提供商合作託管DGX雲基礎設施,每個DGX Cloud實例的月租價格定為36999美元起。
編輯:芯智訊-浪客劍