繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

專訪中昊芯英CTO鄭瀚尋:國產AI芯片也將兼容不同平臺

2025-09-25 06:13

  炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!

(來源:21世紀經濟報道)

旺盛的AI智算需求驅動下,越來越多GPU路線之外的AI芯片正獲得更多市場關注。

從美股市場看,博通(Broadcom)水漲船高的訂單量和股價大漲背后,少不了眾多雲服務廠商尋求英偉達GPU生態之外技術路線的支持,以谷歌(Google)為代表的TPU(張量計算單元)芯片、Groq為代表的LPU芯片都是其中典型。

在國內市場同樣如此,立足於ASIC定製芯片的眾多廠商正在快速發展。

對於目前市場中XPU廣泛發展的情況,中昊芯英聯合創始人兼CTO鄭瀚尋接受21世紀經濟報道記者專訪時指出,「在計算技術發展迭代過程中,產業界持續追求更高費效比的路徑,可能會逐漸向某個方向收斂,這是可以預見的趨勢。」

他進一步表示,過去,業界普遍認為ASIC芯片從流片到最終落地應用過程中,需要付出較高成本,但隨着專用芯片持續發展,其成本不再那麼高昂時,會有越來越多廠商願意借力自研專用芯片架構,探索推進個性化AI能力落地。這是ASIC芯片備受關注的原因。

TPU躍起

尋找GPU芯片之外的發展機會早已是一種新趨勢。

「漸進式能力提升難以縮小與英偉達的差距,唯有求新求變,纔有可能實現類似新能源汽車領域的‘彎道超車’。」他指出。此外,GPU芯片如今取得的成功,更大程度在於英偉達的成功,其多年來累積了深厚的工程化實驗團隊,這已經不是所有后來者可以直接照搬複製的路線。

在GPU之外,定製化ASIC芯片早已受到更大關注,無論是博通近期再度「炸裂」市場的百億美元訂單,還是谷歌持續對TPU自研芯片的演進,都顯示出,市場的確對GPU之外的AI計算芯片同樣有關注度。

中昊芯英選擇的就是與谷歌類似的GPTPU路線。

鄭瀚尋對21世紀經濟報道記者分析,自從英偉達在旗下Tesla V100系列芯片中加入Tensor Core(張量處理單元)以來,其對CUDA Core在處理單元方面其實並沒有呈現劇烈波動、功能實現也沒有太大變化,反而是對Tensor Core的數量、支撐功能等方面,每一次迭代都有新亮點。

「因為對張量計算單元進行投資會很划算。」他進一步指出,尤其在大模型時代,隨着處理數據規模的持續擴大,每多N倍數據傳輸量,張量運算單元就能夠完成N2的計算量,意味着能實現相對划算的計算效果。

倘若簡單類比的話,鄭瀚尋指出,傳統CUDA Core可以理解為是讓一羣大學生同時完成一道題目,其中CPU是博士生,可以處理很複雜的題目,但該羣體中只有一位博士生;GPU由於是多人共同進行運算,看起來會比CPU更能勝任有較大計算量的工作;但TPU更像是一臺3D打印機,能夠把計算任務一次性打印成型。

生態加速度

大模型持續發展,Scaling Law仍未失效,這意味着運行模型對底層AI算力集羣在提出更高要求。如何把「單點能效」持續放大到「集羣能效」,是國產XPU芯片面對的進一步挑戰。

為應對這些趨勢,AI芯片產業鏈廠商分別針對芯片間、機櫃間、數據中心間等不同維度,着力應對龐大規模的高速數據傳輸需求。

鄭瀚尋對記者表示,很顯然,未來數據傳輸會是AI基礎設施面臨的瓶頸之一。「一方面,在這里可以發揮Tensor Core的優勢,通過傳輸N倍的數據量,完成N2的計算量;另一方面,在算力提升后,就要對互聯能力發力。TPU芯片的優勢在於,谷歌此前推出第三代產品時,已經支持多達千片芯片規模的片間互聯。」

據介紹,中昊芯英能夠支持千卡集羣內1024片芯片直接光模塊高速片間互聯,並且有了千卡集羣的落地實踐也在探索藉助OCS全光互聯等新技術方案,來進一步增強自身互聯能力。

從英偉達的路線來看,其是通過構建InfiniBand高速互聯協議,形成公司的一條護城河,市場也一度有聲音提到,InfiniBand是更適合大規模數據中心集羣部署的連接協議。

但也因為英偉達相對封閉的態度,令其競爭對手更積極推進以太網協議的發展。這也是多數國產AI芯片廠商選擇的方向。

「今天的以太網早就跟過去不同了。」鄭瀚尋對記者分析道,近兩年來,頭部AI芯片廠商在積極構建以太網聯盟,而該技術路線本身無論是物理介質還是帶寬能力都實現大幅提升,已經十分具競爭力。「例如特斯拉基於以太網介質和底層推出的TTPoE(Tesla Transport Protocol Over Ethernet)連接協議,能夠實現很低延迟。我們基於類似做法,對比特斯拉發佈的論文后發現,中昊芯英的互聯延迟已經做得比特斯拉表現更好。」

軟件生態建設同樣不容忽視。由於英偉達建設十余年的CUDA生態為閉源狀態,國產芯片平臺均繞不過自主建設軟件棧和工具鏈的過程。

「類比手機生態來説,在安卓系統剛起步時,國產手機爲了能順暢運行一款大型遊戲,各家也需要對自身系統投入大量精力進行具體優化。」他指出,未來國產AI芯片也將通過持續的工具鏈完善,實現不同平臺間的兼容與流暢體驗。

當然對於模型本身而言,Transformer架構自2017年提出以來,經歷了各種優化和改進,如今,越來越多多模態大模型甚至世界模型也在探索落地。

鄭瀚尋對21世紀經濟報道記者指出,雖然目前大模型仍在迭代,但「萬變不離其宗」。「今天市面上絕大多數大語言模型,本質上仍然脱胎於《Attention Is All You Need》論文,也就是以Transformer架構定義了今天大語言模型新範式的邏輯框架仍未改變。雖然后續有模型在某些細微環節提出優化方案,但整體結構並未出現根本性變化。」

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。