熱門資訊> 正文
2026-04-22 11:36
原標題:智能體崛起后,整個AI價值鏈的分佈都變了
AI投資的主敍事,正在發生一次深層且不可逆的結構性遷移。
如果説過去兩年市場圍繞的是「誰擁有更多GPU、誰就擁有未來」,那麼現在隨着AI從「生成內容」走向「自動執行任務」,整個產業的核心矛盾,正在從「算力不足」轉向「系統效率不足」,而對應的投資邏輯,也將從「單芯片算力競賽」擴展為「全棧系統工程」。
摩根士丹利研究部分析師Shawn Kim在報告中直接寫道,「智能體AI標誌着從計算到編排的結構性轉變。」在智能體工作流中,CPU側編排時間可佔總時延的50%至90%,由此推導出到2030年新增325億至600億美元的CPU增量市場空間,並將服務器CPU總TAM推至825億至1100億美元量級。在2030年將額外催生15至45EB的DRAM需求,規模相當於2027年全行業年供給的26%至77%。
與此同時,DRAM、ABF載板、晶圓代工、存儲、連接器與被動元件等環節,均將從「配角」躍升爲新的瓶頸與利潤池。
這一判斷對市場意味着:AI資本開支的受益者將從少數芯片巨頭擴散至整條全球供應鏈,下一輪超額收益,可能更多來自那些在智能體工作流中*成為瓶頸、且最難快速擴產的"使能環節"。隨着瓶頸在不同環節遷移,AI價值鏈的權重分佈隨之改變。
01、AI到底在優化什麼?
在理解這份研報之前,必須先回答一個更底層的問題:AI系統真正優化的目標是什麼?
在生成式AI階段,答案很簡單——模型能力,即「能不能生成更好的內容」。這對應的核心指標是:模型規模(參數量)、訓練效率(FLOPs)、推理性能(tokens/s)。
因此,GPU成為*中心,NVIDIA 也自然成為這一階段的*受益者。
但當AI進入「智能體」(Agentic AI)階段后,目標函數發生了根本變化。系統不再只需生成內容,而是需要完成任務,這意味着評估標準從「能力」轉向「效率」:單位任務成本(cost per task)、系統延迟(latency)、吞吐能力(throughput)。
這一變化直接導出一個關鍵結論:GPU決定「能不能做」,但CPU與系統決定「能不能賺錢」。
02、結構性轉折:從「生成」到「行動」,瓶頸從算力轉向編排
生成式AI的典型工作流結構相對簡單:用户請求到達后,CPU完成少量預處理,GPU負責token生成,隨后輸出結果。在這一鏈路中,GPU承擔了絕大多數價值,CPU僅作為輔助存在。
然而,智能體AI的工作流完全不同。一個完整任務往往需要經歷規劃、檢索、工具調用、執行、反饋與再決策等多個階段,同時還涉及多智能體協作、權限管理、狀態持久化以及持續調度。智能體帶來的不是更"重"的單次推理,而是更多步驟、更多狀態、更多協調,而這些工作天然更適合CPU處理。
換言之,AI的主要矛盾,正在從「算不動」,轉向「調不動」。
由此帶來兩個直接后果:其一,集群層面CPU與GPU的配比將系統性上升;其二,DRAM從「容量配置項」升格爲「性能與吞吐的核心繫統組件」。數據中心的瓶頸將越來越多地出現在內存帶寬、數據搬運、互連時延與系統級協調,而非單純的GPU算力。
03、CPU重估:從"1:12"走向"1:2"乃至反轉
過去,"1顆CPU服務約12塊GPU"曾是AI服務器的典型架構描述。但報告指出,隨着智能體工作流變長、工具調用與上下文管理趨於複雜,這一比例正在快速收窄。
以NVIDIA路線圖為例,更新估算顯示:在Rubin平臺附近,CPU與GPU的配比已接近1:2;若向Rubin Ultra等更激進形態演進,甚至可能出現2顆CPU對應1顆GPU的反轉配置。即便僅從1:12改善至1:8,對超大規模部署而言,CPU的*需求量也將出現量級跳升。
一旦這一方向成立,CPU的需求彈性將從「跟着服務器出貨走」轉變為「跟着智能體複雜度走」,這意味着CPU需求的增長將更具結構性,而非僅僅是傳統硬件換代周期的延續。
04、CPU TAM重算:2030年825億-1100億美元,增量來自編排
摩根士丹利採用「系統分層」方法,將智能體帶來的CPU機會從傳統服務器更新換代邏輯中剝離,建立三個獨立分析口徑:
三項合計,2030年服務器CPU總TAM約825億至1100億美元,其中智能體帶來的增量約325億至600億美元。整個測算的底層錨點是對2030年全球AI數據中心基礎設施銷售額約1.2萬億美元的判斷(2025年約為2420億美元)。
報告同時給出了「上修開關」:若按NVIDIA口徑,2030年AI基礎設施銷售額達到3萬億或5萬億美元,則CPU TAM區間將被整體推至2060億至2750億美元,乃至3440億至4580億美元。這並非基準預測,但揭示了"AI工廠"規模擴張對CPU需求的系統性放大效應。
05、內存躍遷:從容量配置到性能核心
如果説CPU是系統的「控制中樞」,那麼內存則正在成為系統的「運行空間」。在智能體架構下,大量狀態信息需要被持續保存與快速調用,包括上下文數據、KV cache、工具調用中間態以及多任務併發數據集。
因此,DRAM不再只是容量配置項,而是直接決定系統吞吐能力的核心組件。
根據測算,到2030年,智能體將額外催生15至45EB的DRAM需求,相當於2027年行業年供給的26%至77%。這一增長將推動內存行業從傳統的強周期屬性,向結構性成長轉變。以 SK hynix 和 Samsung Electronics 為代表的廠商,有望在這一過程中獲得更穩定的盈利預期。
更值得關注的是,內存正在成為AI系統中*「持續變現能力」的層級之一。無論是主機DRAM、內存接口芯片,還是CXL擴展與分層存儲體系,都將成為承接長期價值的重要載體。
06、供給越緊的環節越具定價權:ABF載板、代工與使能組件
相比CPU與內存,更具超額收益潛力的,往往是那些「產能擴張緩慢、驗證周期較長」的使能環節。
ABF載板:這輪AI驅動的ABF上行周期可能延續至本十年末,2026至2027年附近存在供需缺口風險。僅"CPU TAM擴大"一項,就可能帶來2030年ABF需求5%至10%的上修;其中服務器CPU ABF載板市場到2030年約達47億美元,CPU帶來的增量需求約12億美元。
晶圓代工(尤其先進製程):CPU代工可服務市場2026年約330億美元,2028年約370億美元。臺積電在CPU代工領域的份額預計從2026年約70%進一步提升至2028年的約75%;並預計英特爾可能在2027年下半年開始將服務器CPU外包給臺積電。
BMC與內存接口:Aspeed被強調為CPU服務器BMC的核心受益者,其在該細分領域約有70%的市場份額,新一代AST2700平臺帶來40%至50%的ASP提升空間;Montage則被置於"內存互連"價值鏈,全球收入份額約36.8%。
CPU Socket與被動元件:報告以Lotes與FIT作為CPU socket的直接映射,測算每增加100萬顆CPU需求,Lotes收入約增加0.6%、FIT約增加0.2%(僅按socket口徑計)。被動元件方面,以"每台通用服務器約30美元MLCC內容量"為簡化假設,推算出2030年額外5億美元MLCC需求增量,約佔屆時全球MLCC市場的2%至3%。
這些環節的共同特點在於:它們處於AI系統的數據流路徑之中,一旦成為瓶頸,就具備較強的定價權。以 Samsung Electro-Mechanics 為代表的封裝與載板企業,正是這一邏輯的典型體現。
這一現象可以總結為一句話:AI的利潤,將流向最慢擴產的環節。
07、市場錯配與投資節奏:從集中到擴散
儘管產業邏輯已經發生變化,但資本市場仍在很大程度上停留在「GPU中心敍事」中。這種錯配意味着,未來一段時間內,資金將逐步從高度集中的算力資產,向更廣泛的基礎設施環節擴散。
從投資節奏來看,可以大致分為三個階段:
在這一過程中,超額收益將不再集中於單一公司,而是分佈於整個系統鏈條之中。
08、結語:AI進入「系統效率時代」
綜合來看,這份研報真正揭示的,並非某一個細分賽道的機會,而是AI產業邏輯的整體躍遷。人工智能正在從「算力驅動」邁向「效率驅動」,從「模型競爭」走向「系統競爭」。
在這一新階段中,決定勝負的不再是單一組件的性能極限,而是整個系統的協同效率。GPU依然重要,但它只是系統的一部分;真正的定價權,將屬於那些掌握調度能力、控制數據流並處於關鍵瓶頸位置的參與者。
對於投資者而言,這意味着必須完成一次認知升級:從尋找「最強芯片」,轉向理解「最關鍵系統」。只有把握住這一邏輯遷移,才能在AI的下一輪周期中,真正捕捉到持續且結構性的超額收益。