熱門資訊> 正文
2025-09-22 12:03
芯東西9月17日報道,今日,2025全球AI芯片峰會在上海舉行,來自AI芯片領域的42位產學研專家及創業先鋒代表,暢談對大模型下半場中國AI芯片創新、落地、生存、破局的最新觀察與思考。
一如既往,大會將國產AI芯片新老勢力、核心生態鏈企業、投資機構代表匯聚一堂,集中輸出技術及產業乾貨,全景式解構AI芯片熱門發展方向。
本屆峰會由智一科技旗下智猩猩與芯東西共同舉辦,以「AI大基建 智芯新世界」為主題,由主論壇+專題論壇+技術研討會+展覽區組成,覆蓋大模型AI芯片、架構創新、存算一體、超節點與智算集羣技術等前沿議題。AWE同時也是本次峰會的戰略合作機構。
值得一提的是,多家AI芯片企業在會上放出猛料。例如,幾位資深投資人分享投資AI芯片企業所看重的條件,一家超節點創企成立幾個月就融資六七億,雲天勵飛正在研發新一代NPU Nova500,華為昇騰將在12月把CANN全量開源,曦望Sunrise下一代芯片的大模型推理性價比對標英偉達Rubin GPU。
在展覽區,超摩科技、奎芯科技、特勵達力科、Alphawave、芯來科技、Achronix、曦望Sunrise、矩量無限、AWE、晶心科技、芯盟科技等11家展商進行展示。
▲展覽區一隅
作為主辦方代表,智一科技聯合創始人、CEO龔倫常發表致辭。從2018年3月至今,全球AI芯片峰會共邀請了超過180位產學研大咖,分享行業趨勢與洞見,已成為AI芯片領域唯一一個持續舉辦且具有廣泛影響力的產業峰會,也是瞭解國內外AI芯片動態的重要窗口。
▲智一科技聯合創始人、CEO龔倫常
龔倫常還預告了將於今年11月底在深圳舉辦的2025中國具身智能機器人大會,歡迎大家參會交流。
注:本文整理了主論壇與大模型AI芯片專題論壇的精華總結。更多相關報道將在后續發佈。
應對模型規模「超摩爾」增長、傳統架構「內存牆」、應用場景日趨多元化三大挑戰,中山大學集成電路學院院長、IEEE/AAIA Fellow王中風教授探討了AI芯片設計的三大前沿方向,為行業的發展提供了寶貴的見解和指導。
一是模型驅動的高效芯片設計,在模型尺寸增長的趨勢下,讓硬件深度適配AI模型特性,而非讓模型發展受限於硬件資源。
王中風教授團隊提出的Transformer硬件加速架構設計工作,是首個完整解決Attention計算加速挑戰的方案,獲得了IEEE 2020年片上系統年會(SOCC)最佳論文獎;N:M稀疏Transformer推理加速框架,可快速實現任意N:M稀疏比例的Transformer模型開發和硬件部署,同時能保持精度穩定;粗粒度-細粒度混合精度量化,搭配專用多核加速器來處理差異計算,能夠實現更靈活的調度。
二是應用驅動的AI芯片創新,注重模型的落地與應用,兼顧能效和靈活性的探索。
架構創新沒有唯一解,只有更合適的解。結合可重構硬件架構(動態適配不同算法需求)、領域專用架構(在垂直場景實現超過通用架構的能效)、Chiplet等先進封裝技術(提高設計靈活性、降低成本、縮短上市周期),以應用驅動為核心的AI芯片設計,將是未來值得重點探索的研究方向。
三是基於存算一體的芯片設計,從存算架構根源降低能耗,平衡性能與功耗。
存算一體架構是芯片設計範式轉移的一個重要方向。數字存算架構的優勢是高精度、高穩定性、生態更成熟,但存在高能耗、高硬件開銷、低存儲密度等問題;模擬存算架構具有低能耗、高存儲密度、低硬件開銷等優勢,但精度較低、對工藝要求高、生態不成熟。王中風教授團隊研究的基於SRAM的數字存內計算架構大模型加速器,支持多種數據精度,相比於傳統馮諾依曼架構,能效比可提升數十倍。
上述三條路徑並非孤立,而是相互支撐,共同推動AI芯片從「通用適配」走向「精準定製」。
▲中山大學集成電路學院院長、IEEE/AAIA Fellow王中風教授
王中風教授總結説,當前AI芯片發展呈現三大關鍵趨勢:一是從通用計算走向領域專用的「專用化」,二是算法與軟硬件共同進化的「協同化」,三是通過新型計算打破性能瓶頸的「一體化」。
以AI計算專用架構SRDA(系統級極簡可重構數據流)為例,通過分佈式3D內存控制技術、可重構數據流計算架構、系統級精簡軟硬件融合設計等創新,在大模型智算場景可以大幅提升AI算力利用率與性能,驅使未來基於國產工藝的AI算力芯片也可以實現不亞於國外更先進工藝製程的GPGPU性能。
下一代計算範式的發展,首先是軟件、算法、硬件的共生,實現全環節協同進化;其次是實現無處不在、高效且可信的智能計算,在雲端實現支持AGI訓練的巨型超算系統,在邊緣實現自主機器人的實時決策大腦,在端側實現超低功耗的Always-On感知芯片。
此外,高效支持智能計算,還需要促進新興技術融合,實現光子計算、量子計算、AI芯片的潛在結合。
王中風教授呼籲開放標準,推動接口、互聯、指令集等的開放,降低創新門檻;注意產學研深度合作,共同攻克量智融合、存算一體、新材料、新工藝、新器件等領域的技術難題;注重人才培養,培養兼具算法、架構、底層電路及軟件開發等技能的交叉型人才。
高端對話以《⼤模型下半場,中國AI芯⽚的破局與突圍》為主題,由智一科技聯合創始人、智車芯產媒矩陣總編輯張國仁主持,和利資本合夥⼈王馥宇、普華資本管理合夥⼈蔣純、BV百度風投董事總經理劉⽔、IO資本創始合夥⼈趙佔祥四位嘉賓進行分享。
張國仁談道,大模型的下半場不僅是技術競賽,更是生態競爭,期待中國即將誕生「芯片+場景+算法」的垂直整合者,出現更多的單項冠軍。
▲智一科技聯合創始人、智車芯產媒矩陣總編輯張國仁
1、DeepSeek擴大算力池后,投資AI芯片企業看什麼?
王馥宇認為,DeepSeek的出現意味着中國出現了「Leading Customer」,好的科技公司會向芯片公司提出需求。蔣純進一步補充道,DeepSeek最大的意義是讓中國有了一套自有大模型體系,讓國產芯片有了用武之地。
這些資深投資人會傾向於投資什麼樣的AI芯片團隊?幾位投資人均看重企業的技術路線是否收斂。
趙佔祥尤其關注技術路線是否有提升及創新。劉水提到百度風投不單純以商業化衡量項目價值。蔣純説:「小孩子才做選擇,成年人我都要。」他表示成熟技術和創新技術都在投資。王馥宇將市場分為兩類,一類是相對確定的市場,考驗團隊的積累和執行力,第二類是靠技術驅動市場發展。
展望芯片企業的未來機遇,蔣純認為,碳基文明被硅基文明取代之前,算力的市場機會看不到頭,市場前景無窮大,現在的技術體系並不是終局。
2、一家超節點創企,成立幾個月融資六七億
王馥宇稱,很多大廠同樣在構建非全家桶方式的網絡架構,未來百花齊放,企業要保持開發、敏感。
在蔣純看來,對中國企業面臨的現實情況而言,「小米加步槍」的scale out路線和超節點所代表的scale up路線至少是同樣重要。
趙佔祥透露,IO資本最近在看的一個超節點創業公司,成立幾個月就融資六七億,但在超節點機遇背后,網絡的可靠性、故障率要求仍面臨挑戰。
BV百度風投曾投資不少具身智能企業。據劉水分享,具身智能是個新興賽道,芯片作為核心硬件支撐,目前還在迭代期,真正能完美匹配各類複雜物理交互場景的成熟芯片產品,行業內仍在探索。
現階段,很多企業選擇x86 CPU加AI芯片的組合來搭建基礎算力平臺,這是行業在技術演進過程中非常自然的過渡性選擇,能快速驗證產品邏輯、跑通初步場景。
而這種 「過渡性」 也正是產業的機會所在——未來無論是更適配具身特性的專用芯片研發,還是基於現有硬件的算力效率優化,只要能解決實際場景中的痛點,就是產業發展的機會點。
3、寒武紀一度登頂A股,「寄託了全村人的希望」
幾位投資人雖然主要看一級市場,但也聊到對二級市場的觀察。他們普遍認為,接下來要IPO的AI芯片公司會比登陸2019年科創板的那批國產替代概念芯片公司更有想象力。
今年,寒武紀一度超越貴州茅臺登頂A股「股王」。在蔣純看來,寒武紀的暴漲背后可能「寄託了全村人的希望」。與上一波芯片企業上市潮相比,當時國產替代概念市場有限,但現在AI市場的需求是無限的。
劉水補充説,AI需求正為計算基礎設施建設注入強勁動力。當前,不少國產芯片企業積極推進IPO進程,這本身是行業加速成長的體現——藉助資本市場的力量,企業能更好地投入研發、擴充產能,為技術突破和規模化交付奠定基礎。
不過,上市只是發展的新起點,最終能否站穩市場,關鍵仍在於技術的成熟度、產能的穩定供給以及客户的深度認可。
從長遠來看,企業需要以持續的技術創新和紮實的商業化能力,真正實現產業價值與市場價值的同步兑現。
面向持續爆發的大模型推理需求,如何在芯片架構、開源開放、高速互連、超節點等方向探索創新?
在上午主論壇期間,來自雲天勵飛、華為昇騰、行雲集成電路、奎芯科技、探微芯聯、新華三的產業嘉賓分別發表主題演講,分享了他們的觀察與思考。
1、雲天勵飛陳寧:國產AI推理芯片迎歷史性機遇
雲天勵飛董事長兼CEO陳寧談道,在「政策+需求」雙重驅動下,國產AI推理芯片正迎來絕佳發展機遇。根據灼識諮詢報告,中國NPU市場規模短期預計新增規模339.3億元,長期預計新增規模1092億元。
高效Token生成是衡量推理芯片性價比的關鍵指標。11年來,雲天勵飛已研發五代NPU,打造相關指令集、專用算子、存算一體架構、低比特混合量化等芯片硬件技術。其「算力積木」架構是基於國產工藝的D2D Chiplet & C2C Mesh大模型推理架構,具有可擴展性強、靈活性強、實時性高等特點。
雲天勵飛提供「深穹」、「深界」、「深擎」三大AI推理芯片系列,分別面向大模型推理算力中心/超節點/一體機/加速卡、邊緣網關/邊緣盒子/家庭主機、及機器人/無人機/無人車等AI推理等應用。
目前,雲天勵飛正在研發新一代NPU Nova500,並基於Nova500推出多款性能更強的AI推理芯片。
▲雲天勵飛董事長兼CEO陳寧
2、華為昇騰王曉雷:公佈全面開源的三個關鍵節點
華為昇騰處理器產品總經理王曉雷談道,英偉達的軟件開發人員是硬件的兩倍,我們作為生態的后來者,要做好開源開放,跟客户與夥伴一起,把芯片和解決方案做得更好。
芯片方案多種多樣,如何把它用好,是一件非常複雜的事情。
AI計算領域,矩陣執行過程需要保證數據到位,而整個數據搬移過程是計算優化的核心。處理器跟底軟團隊需要與算法和業務專家聯合優化,才能發揮出處理器的高性能。
王曉雷現場公佈了昇騰未來進一步全面開源的關鍵節點,包括9月30日算子庫全部開源、12月30日CANN全量開源、2026年起解決方案配套產品上市即開源。
▲華為昇騰處理器產品總經理王曉雷
3、⾏雲集成電路季宇:10萬元跑滿血版DeepSeek
⾏雲集成電路創始⼈&CEO季宇拋出一個問題:誰困住了AI產業?
他的答案是大型機投資回報率。超節點化、大型機化的成本門檻巨大,但隨着大模型內存需求接近DDR/LPDDR的甜點,高質量模型的硬件系統平民化曙光已現。
其概念原型產品大模型一體機「褐蟻」採用5090級算力+TB級高帶寬DDR5,能以10萬元成本運行DeepSeek R1/V3 671B FP8,對話速度超過20TPS,20K上下文prefill在18秒以內。
集羣概念驗證方案「蟻羣」可將超過40台「褐蟻」機器組合作為decode節點,prefill節點採用4根SSD替代DDR,總成本為300萬~500萬元,以約1~2台8卡超算的價格,實現20倍於1~2台超算的併發能力,提供接近DeepSeek公有云的性價比。
行雲希望通過其原型概念產品,呈現DDR/Flash滿足大模型推理需求的潛力,並通過芯片產品,將頂配大模型的硬件成本降低到萬元甚至千元級價位,推動AI普惠。
▲⾏雲集成電路創始⼈&CEO季宇
4、奎芯科技唐睿:Chiplet將加快國產芯片研發
當前AI革命與過往互聯網產業有明顯差異,利潤高度向硬件環節傾斜。奎芯科技聯合創始⼈兼副總裁唐睿談道,隨着模型尺寸不斷變大,算力需求飆升,爲了爭奪AGI領域的勝利,科技企業的CAPEX大幅增長且逐漸取代OPEX成為主流趨勢。
AI領域存在芯片設計周期遠跟不上算力及模型發展需求的矛盾。在唐睿看來,基於Chiplet的設計能加快芯片研發迭代。
2021年-2030年處理器預計研發項目數量年化增長約9%,但基於Chiplet的設計年化增長率高達44%,預計2030年佔比超一半。
對此,奎芯打造了基於UCle標準接口IP的國產化完整解決方案,研發了兩代UCle IP,第一代為16GT/s,第二代為32GT/s,且在標準封裝實現。這些IP具有高性能、低功耗、靈活性等優勢,能為芯片快速迭代提供支持。
▲奎芯科技聯合創始⼈兼副總裁唐睿
5、探微芯聯劉學:國產超節點如何實現異構互聯?
探微芯聯創始人、清華⼤學類腦計算研究中心劉學分享説,類腦計算與AI同源異流,天生具備超大規模計算系統的通信基因,與智算超節點的發展趨勢十分吻合。
探微將類腦集羣技術遷移至GPU智算平臺,打造面向AI芯片的Scale-up完整互聯方案,實現了覆蓋通信協議、交換芯片/網內計算、軟件棧/集合通信庫、RAS機制與可維護機制、路由算法、超節點平臺、性能建模和異構互聯等關鍵技術。
不過,劉學認為,超節點通信不只是技術堆疊。通信協議具有較強生態屬性,需要廣泛的應用場景和生態支持才能推廣。
從類腦集羣體系結構的大量工程經驗積累,到探微通信互聯關鍵技術的不斷迭代,探微方案實現從底層到高層的計算和通信的全方位打通,能夠為智算超節點生態夥伴提供Scale-up通信協議系統級解決方案、異構融合及智算超節點萬卡集羣工程方案。
▲探微芯聯創始人、清華⼤學類腦計算研究中心劉學
6、新華三劉善⾼:超節點是AI系統工程巔峰
新華三集團AI服務器產品線研發部總監劉善⾼談道,大模型技術趨勢給算力基礎設施帶來了算力牆、顯存牆、通信牆等挑戰,打造AI超節點成為必然趨勢。
這需要異構計算協同優化、高速互聯網絡、精密結構設計等基礎設施的深度集成,對軟硬協同要求高,是AI系統工程的巔峰。
新華三設計了兩款超節點產品:整機櫃超節點H3C UniPoD S80000和靈活部署超節點H3C UniPoD F80000。
S80000實現櫃內卡間全互聯通信,互聯帶寬提升8倍,單機櫃訓練性能相較於單節點最高可提升10倍,單卡推理效率提升13倍;F80000基於傳統AI服務器即可靈活擴展Scale-up網絡,能夠實現MoE大規模訓練性能提升35%以上。
未來,AI加速卡將更加百花齊放,高帶寬低延迟的卡間高速互聯網絡也將是必然趨勢。
▲新華三集團AI服務器產品線研發部總監劉善⾼
在下午的大模型AI芯片專題論壇上,上海交通大學計算機學院教授、上海期智研究院PI冷靜文分享了數據流體系架構如何成為新一代的大模型加速引擎。
隨后,來自曦望Sunrise、愛芯元智、墨芯人工智能、江原科技、邁特芯、智源研究院、北極雄芯、Alphawave的產業嘉賓分別發表主題演講,分享創新的技術路徑與最新進展。
1、上海交通大學冷靜⽂教授:數據流能提高大模型推理效率
上海交通大學計算機學院教授、上海期智研究院PI冷靜文認為,數據流體系架構是大模型高效執行研究的重要方向,它通過數值壓縮與計算流調度的優化,提升推理性能。
低位寬數值類型可顯著降低存儲開銷,提高計算效率;而向量量化有望幫助大模型突破4bit的表示極限。冷靜⽂教授團隊研發了面向多元素量化的計算引擎VQ-LLM,通過三級緩存機制和以碼本為中心的計算流程優化,實現性能與精度的雙重提升。
新一代GPU架構正在逐漸DSA化,編程難度不斷增加。其團隊已經在探索一種「Kernel Free」的編程模型、用「Register Pooling」降低共享內存帶來的開銷,並使用動態並行機制,最終形成基於代碼塊的數據流抽象機模型。項目成果未來將開源發佈。
▲上海交通大學計算機學院教授、上海期智研究院PI冷靜文
2、曦望陳博宇:國產AI芯片破局,極致推理目標1分錢/百萬Token
曦望Sunrise研發副總裁陳博宇認為,大模型發展進入下半場,雲端訓練算力向高效推理傾斜。AI芯片高效推理是一場長期價值競賽,降成本、降能耗,性價比的窪地亟待填平。
曦望的下一代芯片採用單芯片高配比低精度計算單元,大模型推理性價比對標英偉達Rubin GPU。
在主流測試集中,NVFP4精度下運行DeepSeek-R1的表現已接近FP8,低精度數據格式能顯著擴大數據吞吐,提升推理效率,從而降低每Token成本。
曦望芯片軟件生態通用性良好。算子庫、工具鏈、通信庫均為全棧自研,主體功能模塊與CUDA對齊,支持各類主流開源模型的推理部署,支持CUDA代碼無縫遷移和工作。
曦望芯片的應用形態分為一體機和超節點,是Scale-up/Scale-out互聯架構原生支持超節點產品。超節點支持PD分離和大EP部署、All-to-All互聯、面向千億級或萬億級參數的多模態大模型推理。
▲曦望Sunrise研發副總裁陳博宇
3、愛芯元智劉建偉:AI應用(大模型)需要重新設計原生AI芯片
愛芯元智聯合創始⼈、副總裁劉建偉分享道,過去端側AI芯片主要跑傳統CNN模型,場景明確,大模型的興起則提升了AI上限,應用場景更廣泛,有望引發成本驅動型生產力革命。
在他看來,當AI程序規模足夠大時,現有運行架構不是最高效的,值得重新設計適合跑AI程序的原生處理器。
端側和邊側長期受成本、功耗剛性約束,對高能效比AI處理器需求迫切。這驅使愛芯元智選擇從端側和邊緣側入手做AI基建。
設計原生AI處理器,需關注算子指令集和數據流DSA架構,兩者相輔相成。採用可編程數據流微架構可提升能效比。異構多核處理器要保證由硬件來調度,以降低客户開發與使用成本。
愛芯元智已打造了從工具鏈到芯片的完整軟硬件體系,推動構建邊緣智能共同體。
▲愛芯元智聯合創始⼈、副總裁劉建偉
4、墨芯人工智能曾昭鳳:稀疏化讓AI計算「更聰明」
墨芯人工智能解決方案總監曾昭鳳談道,傳統硬件架構面臨性能提升困境,通過軟硬一體方案來解決算力瓶頸已是業內公認的發展方向,稀疏化有望成為破解算力瓶頸的突破口。
稀疏計算是一種「更聰明」的AI計算方式,如人類大腦一般,僅啟動計算所必需的神經元,減少冗余重複,提升有效性能。
基於這一認知,墨芯提出了「權重稀疏化+激活稀疏化」的雙稀疏技術,在相同硬件資源下實現高達32倍的稀疏率,並協同設計了配套的軟件方案。
從算法與軟件出發,墨芯打造了相應的硬件與架構,開發的計算卡已能在雲端推理場景中加速CV、NLP及知識圖譜等多類任務。
▲墨芯人工智能解決方案總監曾昭鳳
5、江原科技王永棟:構建全國產化AI芯片產業鏈
江原科技已構建貫通EDA工具、芯片IP、芯片設計、芯片製造、封裝測試的全國產化AI芯片產業鏈。
江原科技聯合創始⼈兼CTO王永棟認為,全國產路線已經成為行業共識,核心挑戰集中在工藝和生態上。他從工藝、架構、生態層面探討了國產芯片的突圍路徑。
工藝維度,國內AI芯片企業唯一的道路就是擁抱全國產,具體路徑包括基於國內工藝特點進行協同優化、系統集成創新。
架構維度,需要向AI定製傾斜,通過拆解AI算法將其中佔比高、對效率影響大的部分進行硬件優化。
生態維度,從降低客户使用門檻、發揮本土化優勢打造性能長板、擁抱開源切入。
▲江原科技聯合創始⼈兼CTO王永棟
6、邁特芯李凱:突破端側大模型芯片三個關鍵痛點
在邁特芯主任工程師李凱看來,端側AI場景正從「離身智能」向「具身智能」進化,這離不開端側芯片的支持。端側大模型芯片(LPU)需要滿足低功耗、高token數、低成本,這正是痛點所在。
邁特芯LPU採用的3D-DRAM解決方案可大幅提升帶寬,以滿足端側大模型需求。該方案採用了針對大模型算子優化的DSA設計和自研立方脈動陣列架構,基於多項技術優化,實現計算利用率和內存帶寬利用率最大化。
演示中,基於邁特芯LPU推理卡可實現大語言模型端到端部署,帶寬利用率75%、性能75tokens/s,性能和能效達到國際領先水平。
邁特芯針對泛端側大模型硬件產品、端側大模型硬件產品和推理一體機三類場景佈局產品,三個市場的總空間可達萬億級。
▲邁特芯主任工程師李凱
7、智源研究院鄭楊:統一編譯器給OpenAI Triton語言補短板
北京智源⼈⼯智能研究院AI編譯器專家鄭楊分享説,OpenAI的Triton語言已成為業內公認的、繼CUDA后第二大流行的AI算子開發語言,但其也有明顯弱勢:需要在開發效率和性能之間權衡,跨芯片的可移植性和性能不足,治理與生態面臨侷限性,以及版本分散等。
為此,智源構建了面向多元AI芯片的統一編譯器——FlagTree。
FlagTree基於硬件感知進行了編譯指導優化,允許程序員通過註釋嵌入硬件優化提示flagtree_hints,具有使用成本低、生態兼容好、可移植性強等特點。
同時,該編譯器在C++運行時進行了優化,提供從C++調用Triton內核的方法,從而節省Wrapper耗時,整體降低80%以上,與CUDA接近。
▲北京智源⼈⼯智能研究院AI編譯器專家鄭楊
8、北極雄芯徐濤:大模型推理落地有效降本迫在眉睫
截至2025年6月,中國日均tokens消耗量突破30萬億,比2024年增長300+倍,且依然處於高速增長期。而大模型應用商業化閉環任重道遠,一方面C段訂閲付費較難,B端API調用收費與美國相比有數量級的差距,另一方面國內算力成本並不優於美國。
北極雄芯聯創、副總裁徐濤談道,當前中國大模型應用落地商業化,解決成本問題至關重要。而受制於各類制裁,面對高速增長的算力、存儲容量、內存帶寬的「不可兼得三角」,國內上下游企業亟需共同開展架構創新。
在雲端推理場景,北極雄芯將在近期推出面向Decode環節的專用加速方案,通過Chiplet+3D堆疊的近存計算技術大幅降低推理成本至少一個數量級,相比主流GPU芯片提升10倍以上性價比。
在端側AI領域,北極雄芯的啟明935系列芯粒通過Chiplet靈活組合應用,為主機廠提供AI Box、艙駕一體、高階智駕等不同擋次應用的解決方案。
▲北極雄芯聯創、副總裁徐濤
9、Alphawave鄧澤羣:高速連接市場猛增,Chiplet是變革路徑
Alphawave戰略客户銷售經理鄧澤羣談道,高速連接的市場規模2023年接近100億美元,預計2026年接近180億美元,年複合增長率達到20%。
這背后的推動力就是數據中心建設,其對數據的傳輸、存儲、處理需求爆炸,數據帶寬每2~3年翻一倍。
生成式AI正在重新定義計算和連接。他預測ChatGPT背后下一代模型的參數規模或達到百萬億級別,促使雲服務商建設更高規格的數據中心。
鄧澤羣認為,新計算技術的變革路徑是Chiplet,以及為雲服務商進行定製,以滿足大語言模型的需求。
伴隨AI產業發展,Alphawave的業務體系已經從IP供應擴展到高速連接技術的垂直集成方案。
▲Alphawave戰略客户銷售經理鄧澤羣
8年來,智東西、芯東西持續對AI芯片全產業鏈進行追蹤報道,見證了AI芯片產業及智能革命浪潮的發展,以及許多AI芯片團隊的厚積薄發。
多個知名市場調研機構的數據顯示,2024年中國AI芯片出貨量顯著提升,華為昇騰、阿里平頭哥、崑崙芯、寒武紀、摩爾線程、燧原科技、中昊芯英、壁仞科技、沐曦股份、太初元碁等企業的AI芯片均已走向量產交付,並在性能方面縮短與國際先進水平的差距。龐大的國內AI基建市場,正向國產AI芯片敞開大門。
與此同時,國產AI芯片正迎來政策紅利期。今年8月,國務院印發《關於深入實施「人工智能+」行動的意見》,在強化基礎支撐能力方面,提到強化智能算力統籌,支持AI芯片攻堅創新與使能軟件生態培育,加快超大規模智算集羣技術突破和工程落地。
在AI產業趨勢、地緣博弈等複雜因素的影響下,AI芯片自主可控勢在必行,國產模型與國產芯片的適配有望進一步增強,AI芯片及算力基礎設施技術仍有巨大的創新空間和市場前景。