繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

微軟狂屯GPU,目標180萬顆

2024-04-19 09:59

如果您希望可以時常見面,歡迎標星 收藏哦~

來源:內容來自半導體行業觀察(ID:icbank)綜合,謝謝。

微軟試圖在2024年底前囤積180萬顆的人工智能(AI)芯片,顯現該科技巨擘強化硬體實力以支援先進AI技術的野心。繪圖芯片大廠英偉達(NVIDIA)先前則宣佈,該公司將與微軟攜手打造一臺大型電腦,用於處理雲端繁忙的AI運算工作。

美國新聞網站《商業內幕》(Business Insider)取得內部文件顯示,微軟打算將自家圖形處理器(GPU)數量增加2倍至180萬顆,主要從英偉達手中購買。擁有更多芯片有助於微軟推出效率更高、速度更快與更便宜的AI產品。

該文件並未詳述這些芯片未來可能的應用方式,但取得大量芯片意味着:微軟可以在自家產品進行廣泛部署,範圍涵蓋雲端服務與消費電子產品等。

消息人士透露,微軟計畫在2027年前砸1,000億美元投資GPU與資料中心,以強化現有相關基建設施。

微軟大量囤積AI芯片,凸顯該公司努力在AI領域維持競爭優勢,而獲得強大運算能力是創新的關鍵所在。

但這也可能對於微軟帶來投資成本與技術過時風險,同時遭致濫用市場主導地位、運算能力過度集中與違反競爭行為等批評聲音。

另一方面,英偉達日前表示,他們與微軟合作打造的AI電腦將在微軟Azure雲端平臺運作,並採用英偉達數萬顆GPU,包括后者最強大的H100與A100芯片在內。

英偉達婉拒透露此筆合作案的合約價值。但根據業界人士推估,每顆A100芯片價格約介於1萬~1.2萬美元,至於H100價格遠高於此水平。

英偉達超規模與高效能運算部門總經理巴克(Ian Buck)表示:「我們正處於AI進入企業應用的關鍵拐點,客户可以使用這些服務為業務部署AI,此一理想正在變成現實。」

除了出售芯片外,英偉達也將與微軟合作開發AI模型。英偉達表示,他們將成為微軟AI雲端電腦客户,同時以此開發AI應用程式並提供服務給客户。

誰擁有最多的H100?第一名遙遙領先,第二名有爭議!

特斯拉和埃隆·馬斯克專注於人工智能的企業 xAI 共同儲備了大量 NVIDIA H100 GPU,前者致力於永久破解 5 級自動駕駛難題,而后者則試圖實現馬斯克「最大程度」的願景——尋求真相的人工智能。

X 帳户「The Technology Brother」最近發佈消息稱,馬克·扎克伯格的 Meta 現已積累了世界上最大的 H100 GPU 儲備之一,數量約為 35 萬個。然而,馬斯克對該表中特斯拉和 xAI 的排名持例外態度,他指出,「如果測量正確,特斯拉將排名第二,X/xAI 將排名第三。」

假設其他條件保持不變,這意味着特斯拉現在擁有 30,000 至 350,000 台 NVIDIA H100 GPU。另一方面,xAI 目前可能擁有 26,000 至 30,000 塊 NVIDIA 專注於 AI 的顯卡。

早在 1 月份,埃隆·馬斯克 (Elon Musk) 就確認對 Tesla Dojo 超級計算機進行5 億美元的新投資(相當於約 10,000 個 H100 GPU)時宣佈,這家電動汽車巨頭「今年在 NVIDIA 硬件上的支出將超過這一數字」,因為「在人工智能領域具有競爭力」「目前每年至少有數十億美元」。

請記住,xAI 在 2023 年購買了大約10,000 塊NVIDIA GPU,馬斯克從 DeepMind、OpenAI、谷歌研究院、微軟研究院、特斯拉和多倫多大學聘請了人才,從頭開始打造他的人工智能企業。不過,可以合理地推斷,這些購買很可能與 A100 GPU 有關。從那時起,從馬斯克最新的 X 帖子中可以推斷,xAI 似乎也積累了大量 H100 GPU。

當然,考慮到人工智能領域的創新步伐,這些 H100 GPU 很快就會過時。早在三月份,NVIDIA 就發佈了GB200 Grace Blackwell Superchip,將一個基於 Arms 的 Grace CPU 與兩個 Blackwell B100 GPU 結合在一起。該系統可以部署具有27 萬億個參數的 AI 模型,預計在執行聊天機器人提供答案等任務時速度將提高30 倍。

賣爆了的H100,終於冷下來了?

今年二月,分析公司 UBS 在給客户的一份新報告中表示,用於人工智能應用的 Nvidia廣受歡迎的 H100 80GB GPU的交付時間(等待時間) 已從 8-11 個月縮短 至僅 3-4 個月。該公司表示,這種轉變表明近期增長可能達到峰值,但也可能預示着英偉達未來增長前景面臨麻煩。不過,瑞銀仍上調了對英偉達的展望,將盈利預測和目標價上調至850美元。

交貨時間的縮短是一把雙刃劍。一方面,這表明英偉達的生產合作夥伴臺積電(或其芯片封裝分包商)正在擴大其CoWoS封裝產能(這限制了H100和其他用於AI應用的先進處理器的供應),這意味着更好的供應和更快的速度履行訂單。這種效率可能會帶來短期收入和利潤的增長,因為公司可以在更短的時間內運送更多產品。另一方面,隨着交貨時間接近零,英偉達將從根據積壓訂單和新訂單發貨轉變為僅根據新訂單發貨,這可能會導致收入下降。

臺積電表示,將在 2023 年底之前擴大 CoWoS 產能,並在 2024 年底之前將產能在 2023 年中期的基礎上翻一番。也許臺積電或其 OSAT 合作伙伴之一的 CoWoS 產能擴張進展速度快於預期,導致 H100 交貨時間縮短.

另一方面, 由於美國的限制,現在 Nvidia 無法向中國運送功能齊全的 H100,據報道導致中國的需求下降,它可能只是有大量的「備用」H100 芯片可以運送到其他地方。儘管中國佔英偉達收入的很大一部分,但尚不清楚出貨量的減少是否會導致 H100 的交貨時間從 8-11 個月縮短至僅 3-4 個月。

據The Information 報道,由於稀缺性下降以及維護未使用庫存的成本高昂,一些公司正在轉售 H100 GPU 或減少訂單。這標誌着與去年相比的重大轉變,當時獲得 Nvidia 的 Hopper GPU 是一項重大挑戰。據The Information 報道,儘管芯片可用性有所提高,交貨時間也顯着縮短,但人工智能芯片的需求仍然超過供應,特別是對於那些培訓自己的LLM(例如 OpenAI)的人來説 。

AI 處理器短缺的緩解部分歸因於 AWS 等雲服務提供商 (CSP) 使得租用 Nvidia 的 H100 GPU 變得更加容易。例如,AWS 推出了一項新服務,允許客户安排較短期限的 GPU 租賃,解決了以前的芯片可用性和位置問題。報告稱,這導致人工智能芯片的需求和等待時間減少。

儘管 H100 可用性總體有所改善,但開發自己LLM的公司仍然面臨供應限制,很大程度上是因為他們需要數以萬計、數十萬個 GPU。訪問訓練LLM所需的大型 GPU 集羣仍然是一個挑戰,一些公司面臨幾個月的延迟才能收到所需的處理器或容量。因此,Nvidia的H100和其他處理器的價格並未下降,該公司繼續享有高利潤率。

市場目前預計 Nvidia 將持續增長,預計到 2026 年 1 月收入不會出現季度環比下降。然而,交貨時間的迅速縮短表明這種增長可能會更快地冷卻下來,可能在未來兩到三年內宿舍。分析師指出,這種情況並未反映在該股目前的估值中,該估值假設增長不間斷。

英偉達人工智能處理器可用性的增加也導致了買家行為的轉變。公司在購買或租賃時變得更加註重價格和選擇性,尋找更小的 GPU 集羣並關注其業務的經濟可行性。

人工智能行業的增長不再像去年那樣受到芯片供應限制的阻礙。Nvidia 處理器的替代品(例如 AMD 或 AWS 的處理器)正在獲得性能和軟件支持。再加上人工智能處理器上的支出更加謹慎,可能會導致市場更加平衡。

與此同時,對人工智能芯片的需求仍然強勁,隨着LLM變得越來越大,需要更高的計算性能,這就是為什麼據報道 OpenAI 的Sam Altman試圖籌集大量資金來建造更多工廠來生產人工智能處理器的原因。

儘管英偉達的增長可能會放緩,但值得注意的是,整體人工智能能力將繼續擴大。Nvidia 的出貨量將有助於 GPU 安裝基礎的不斷增長,而其他競爭對手也將推動這一增長。因此,儘管英偉達的連續增長可能面臨挑戰,但更廣泛的人工智能行業將繼續前進。

點這里 加關注,鎖定更多原創內容

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。