繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

DeepSeek V4發佈:為何黃仁勛擔心的災難正在發生?AI的新舊格局正在重塑

2026-04-30 19:00

 

導語: 2026年4月24日,AI產業迎來一個註定載入史冊的時刻。中國AI公司DeepSeek在沉寂15個月后,正式發佈旗艦模型V4預覽版——總參數1.6萬億、百萬token上下文全系標配、推理成本低至GPT-5.5 Pro的1.55‰。更重要的是,V4首次在官方技術報告中,將華為昇騰與英偉達GPU並列寫進硬件驗證清單。華為隨即宣佈昇騰超節點全系列產品全面支持V4系列模型,公告中出現了六個字:「芯模技術協同」。

這不是一次常規的模型迭代,這是全球AI產業底層敍事的轉折點。正如英偉達CEO黃仁勛在4月15日彭博社播客中所警告的:「如果頂尖的AI模型被優化在華為芯片上運行,對美國而言將是‘可怕的后果’。」如今,距離這番言論僅過去9天,他所擔心的事正在變成現實。

一、「這不是一場公平的比賽」

先看幾組對比數據。

定價方面,DeepSeek V4-Flash每百萬Token輸出價僅0.279美元,而OpenAI同期發佈的GPT-5.5 Pro輸出價為180美元——整差645倍。V4-Pro版輸入1.74美元/百萬Token,輸出3.48美元/百萬Token,GPT-5.5 Pro則為30美元輸入、180美元輸出,輸出端成本差距達98%。同期Claude Opus 4.6和谷歌Gemini 3.1 Pro的輸出價均在12—25美元區間,是DeepSeek V4的數十倍。GPT-5.4和Claude Opus 4.6的API調用成本,大約是V4的50倍。

成本方面,DeepSeek畫出了一條陡峭的下降曲線:V2訓練成本降至GPT-4 Turbo的1/70,V3降至GPT-4的1/14,R1降至GPT-4o的1/20。三代產品,每代往下打一個數量級。這不是一次促銷,這是一條曲線,一條將所有競爭對手拉入價格雪崩的曲線。其中當然有統計口徑方面的爭議——谷歌DeepMind負責人哈薩比斯曾指出DeepSeek的成本數據「被報小了」,分析機構SemiAnalysis估算其硬件投入可能遠超5億美元。但即便將所有基礎設施投入納入考量,DeepSeek在單次訓練成本上的優勢依然是數量級的。爭議的焦點恰恰證明了結論:即便成本被低估了,它依然便宜得離譜。

性能方面,V4-Pro在Agentic Coding評測中達到開源模型最佳水平,交付質量接近Claude Opus 4.6非思考模式;在世界知識測評中大幅領先其他開源模型,僅稍遜於頂尖閉源模型Gemini-Pro-3.1;數學、STEM、競賽型代碼等推理任務中超越所有已公開評測的開源模型。在Codeforces編程任務中,模型評分達到3206分,位列活躍用户第23名。

更為「反常」的是性能提升定律的逆轉:通常模型參數量擴張意味着算力消耗同步增長,但V4在1M上下文下單Token推理FLOPs僅為前代V3.2的27%,KV Cache壓縮到僅佔10%。這背后是一套組合拳:新的稀疏注意力機制(DSA)在Token維度進行動態壓縮,混合注意力架構降低計算和訪存開銷,MoE架構以1.6萬億總參數僅激活490億參數。

簡單來説,DeepSeek V4重塑了整個AI行業的價格基準。

二、CUDA城牆上的第一道裂縫

這場發佈帶來廉價API只是冰山一角,真正讓黃仁勛感到危機的,是這個等式的一個關鍵變量的改變:算力從哪來?

在DeepSeek V4的技術報告中,結尾處的硬件驗證清單里,華為昇騰被並列標註在NVIDIA GPU的旁邊。這是DeepSeek首次在官方文檔中做出這樣的並列。此舉意味着全球第一個不依賴英偉達生態的前沿AI模型誕生了。華為方面介紹,昇騰950通過融合Kernel和多流並行技術降低Attention計算和訪存開銷,大幅提升推理性能,結合多種量化算法實現了高吞吐、低時延的DeepSeek V4模型推理部署。

更具體的技術細節隨之流出:DeepSeek V4的細粒度專家並行(EP)方案同時在英偉達GPU和華為昇騰NPU上完成驗證,在通用推理場景中實現1.50—1.73倍加速,在延迟敏感的強化學習推演和高速Agent服務場景中加速比最高達1.96倍。華為昇騰950PR推理芯片於2026年3月量產,單卡算力較英偉達對華特供版H20提升2.87倍。

生態適配的速度同樣驚人。截至發佈次日,已有華為昇騰、寒武紀、海光信息、摩爾線程、沐曦股份、崑崙芯、平頭哥真武、天數智芯等8家國產AI芯片品牌及英偉達宣佈適配DeepSeek V4;華為雲、騰訊雲、天翼雲、PPIO等雲服務商也第一時間宣佈上架V4模型服務。更值得注意的是,寒武紀實現了Day 0適配——「大模型上線的當天,算力已完成全鏈路兼容、性能優化、穩定性驗證。開發者開箱即用,零等待、零額外適配即可直接推理該模型」。過去,這一能力是英偉達獨享的生態壁壘。

從經濟學上看,這完全是一次理性的商業選擇。昇騰950PR的採購價格約為英偉達H200的三分之一到四分之一,絕對算力約為H200的一半。在低精度推理場景下,華為芯片的SIMD/SIMT新同構設計、低精度數據格式支持和自研HBM等特性,能展現出超越通用GPU的效率。硬件更便宜,能效更高,且實現了與英偉達持平的生態響應速度——當供應鏈安全性成為企業級考量因素時,這筆賬的答案已經不言自明。

華為與DeepSeek的聯手,本質上重塑了全球算力市場的供需關係。阿里巴巴、字節跳動等國內科技巨頭已向華為下單數十萬顆昇騰芯片。當「中國AI不能沒有英偉達」的認知被打破,被兩大美國科技巨頭壟斷硬件平臺幾十年的局面,正在發生根本性的松動。對此,黃仁勛的評價是——「這對美國來説是災難」。

三、「芯片+模型」,為什麼是護城河的終結?

黃仁勛真正擔心的不只是失去中國市場。當一個最先進的AI模型不再依賴特定芯片時,其過去十年構建的競爭壁壘——基於CUDA的軟硬件生態壟斷——將從根本上被瓦解。

要理解這一點,需要回溯一個經濟學概念:技術鎖定效應。歷史上,技術平臺的護城河並非來自某項硬件的絕對算力優勢,而是來自其生態系統構建的用户粘性和遷移成本。幾十年來,Wintel聯盟用Windows操作系統捆綁英特爾芯片的模式統治了PC時代;過去十年,英偉達用CUDA編程框架加上GPU硬件構築了AI時代的同款閉環。

CUDA生態的核心邏輯是:全球數百萬AI開發者習慣在CUDA平臺上進行編程和模型訓練,幾乎所有的AI框架都對英偉達GPU進行了優先適配,這種生態慣性一旦形成便極難遷移。資本市場的定價邏輯也建立在此之上——給英偉達數萬億美元市值的定價,本質上是對CUDA軟件生態持續壟斷的溢價。

但DeepSeek V4的出現,正在改變這個預期。這不僅僅是中國有了一個能打的模型,而是全球AI產業首次展示了一條可行的「去CUDA」路徑:通過算法層面的工程優化,在算力受限的條件下實現頂級模型性能。

這正是國產AI算力生態近年加速演進的縮影。賽迪顧問預計,到2026年中國算力總規模將突破1200 EFLOPS,其中智能算力貢獻率接近90%,「雲端集中訓練、邊緣靈活推理」的協同模式將廣泛應用,超節點架構將突破傳統算力集群瓶頸。從技術底盤來看,這條路的基礎設施已經鋪好,DeepSeek V4不過是在其上面跑出了第一輛車。

同時,整個大模型行業正處於從「訓練為王」向「推理決勝」的歷史性轉折。大模型訓練曾是AI算力消耗的主體,而到了2025年下半年,AI推理的支出正式超過了訓練,行業迎來所謂「推理翻轉」。當重心從訓練轉向推理和規模化落地,算力的評判標準也隨之改變——不再是誰的GPU更強,而是整個系統能不能跑起來。AI推理市場將從2025年的1060億美元增長到2030年的2550億美元,推理工作負載將在2026年佔據約三分之二的AI計算資源。

在這一新範式下,對頂級訓練芯片的依賴程度將大幅降低,而推理效率、部署成本和供應鏈安全將成為競爭新維度——這些恰恰是DeepSeek與華為昇騰組合的主場優勢。

英偉達的「算力」敍事正在經歷深刻的動搖。一篇分析文章指出:綜合多家媒體信息,DeepSeek V4在設計之初便優先圍繞華為昇騰AI體系進行適配。一旦成功繞過英偉達CUDA體系,DeepSeek將不再只是英偉達生態里的「租户」,被迫接受高昂的「算力租金」和隨時可能斷供的供應鏈風險,而是成為能自主定義算力效率、掌握技術棧主導權的「規則制定者」。

當規則制定者的角色開始轉移,整個產業的利益分配格局也將隨之重構。

四、「便宜50倍」——經濟模型正在撕裂

從更長的時間線來看,DeepSeek帶來的衝擊早已超出單款產品層面。2025年1月,當DeepSeek R1發佈時,英偉達單日市值蒸發近6000億美元,被媒體標記為「DeepSeek時刻」。一年后V4發佈,英偉達股價單日再跌約10%。而此刻,此前遭遇大跌的英偉達股價雖已重返5萬億美元上方,半導體板塊走出18連漲,但有分析指出,這波反彈中美國科技股表現並不亮眼,七大科技公司無一創出新高,暗示投資者對AI算力開支可持續性的深層次擔憂並未消散。

這些波動背后,反映出市場對AI芯片未來需求的判斷正在發生根本性分歧。長期看,算法效率的快速提升與推理需求的結構性轉變,正在重塑英偉達的增長敍事。

論據一:算法效率正在超過硬件迭代速度。 斯坦福大學2025年發佈的《大模型規模定律》指出,當參數超過5000億后,模型在推理能力、常識理解等核心指標上的提升幅度從早期的30%以上降至不足5%,而訓練成本和能耗卻呈指數級增長。換言之,單純堆砌算力的回報遞減效應已經明顯出現。與此同時,OpenAI CEO奧爾特曼本人也承認——使用特定水平AI的成本每12個月下降約10倍,比摩爾定律更加強勁。這種成本衰減速度遠超芯片工藝進步速度,説明真正推動降本的力量主要來自算法創新而非硬件迭代。

論據二:模型之爭正在讓位於Agent之爭。 在DeepSeek V4僅約1000字的產品介紹文章中,「Agent(智能體)」一詞出現了11次。V4的定價策略——低價Flash版搭配高價Pro版的「高低組合」——明確的商業意圖是打通Agent規模化落地的成本賬。這標誌着大模型競爭正從「聊天便宜」進入「Agent便宜」時代。Agent作為AI應用落地的核心形態,其大規模部署所需的算力需求結構與傳統模型訓練截然不同,更強調低延迟、高吞吐和成本可控,而非單點算力峰值。

論據三:算力的需求正在從訓練端全面遷移至推理端。 2026年GTC大會上黃仁勛親自宣佈推理的拐點已經到來,過去兩年AI計算需求激增了1萬倍。這個市場與訓練市場截然不同,它不僅規模在迅速擴大,且其需求特徵——低延迟接口、定製化部署、混合精度推理——對於傳統高門檻的頂級GPU形成了需求替代。這種推理成本數量級的下降將釋放天文數字級的增量應用場景,而不僅僅是在現有存量市場中爭奪份額。

五、梁文峰理想主義者的現實一步:DeepSeek的瓶頸與抉擇

然而,一片歡呼之下,DeepSeek V4的發佈也暴露出這家明星公司正在經歷陣痛。

在V4價格説明中有一行幾乎被忽略的灰色小字:「受限於高端算力,目前V4-Pro的服務吞吐能力十分有限,預計下半年昇騰950超節點批量上市后,Pro的價格會大幅下調。」這行字明白地揭示了國產算力適配的現實骨感:儘管跑通了,但規模化商用仍需時間。

算力緊缺在DeepSeek的產品端早有徵兆。2026年初至今,DeepSeek曾突發多次服務中斷,最受關注的便是3月30日至31日的連續宕機事件。一位從事大模型研究的高校學者坦言:「國產算力支持下的DeepSeek V4大規模商用仍需時間。」

除了算力瓶頸,DeepSeek還面臨來自大洋彼岸的合規壓力。2026年2月,特朗普政府高級官員透露,DeepSeek即將發佈的最新AI模型是用英偉達最先進的Blackwell芯片訓練的,可能已違反美國出口管制規定。雖然DeepSeek在V4中展示了華為昇騰適配成果,但訓練階段是否使用了受管制芯片的問題,仍籠罩着一層迷霧。一位DeepSeek合作供應商人士坦言,V4之所以姍姍來迟,深層原因在於算力架構的重構。

更大的變數來自DeepSeek自身。2026年4月,DeepSeek幾乎同時公佈了兩條大新聞:V4發佈,以及啟動首次外部融資,目標估值從100億美元迅速抬升至200億到300億美元,騰訊、阿里正洽談入局。一內一外兩種變化,意味着這家長期靠創始人梁文鋒和背后量化基金幻方量化純自研之路的「技術理想主義者」,正在完成自己的「成人禮」。

融資的壓力並非空穴來風。隨着郭達雅(R1核心作者)、王炳宣(LLM核心作者)等核心人才被字節、騰訊等大廠挖走,DeepSeek需要一筆大額融資穩定軍心、招兵買馬。多名知情者透露,DeepSeek的資金壓力始於2025年訓練更大規模模型的需求。當理想主義遇上規模化的鐵血法則,從「靠自有資金輸血」轉向「擁抱資本」,這或許是DeepSeek必須邁出的一步。

梁文鋒直接和間接持有DeepSeek 84.29%的股份,擁有幾乎100%的表決權,這在中國AI創業公司中顯得格外另類。融資完成后,這一結構很可能發生重大變化,DeepSeek的未來走向將更加複雜——既要維持技術普惠的開源理想,又要回應資本對商業化的訴求;既要推進國產芯片適配,又要在算力短缺的現實下保持競爭力。

六、雙向脱鈎:全球AI產業鏈的重構

將視野進一步拉遠,DeepSeek V4的發佈本質上是一個地緣技術變遷的標誌性事件,它昭示着一場雙向脱鈎正在發生。

一方面,美國通過持續的芯片出口管制試圖遏制中國算力能力,但刺激出的反而是更獨立的生態閉環。科技史上屢見不鮮的規律是,外部封鎖往往成為內部創新的最大催化劑。黃仁勛本人也曾在播w客中激烈反駁「芯片是濃縮鈾,不該出口給中國」的説法,警告過度限制無法阻止中國進步,反而會逼中國建立完整的自主生態。英偉達最擔心的不是失去一筆訂單,而是在封鎖倒逼之下,出現一個完全繞開其CUDA生態的全新AI基礎設施體系。

另一方面,中國AI產業正在迅速補完「模型+芯片+系統」的完整拼圖。華為與DeepSeek的芯模技術協同,在工程層面實現了從「能用」到「好用」的躍遷,為中國企業在全球科技供應鏈中爭取更多主動權和話語權。當人工智能領域的算法創新不再綁定單一硬件生態,供應鏈安全的紅利將從美國的幾個科技巨頭手中擴散到更廣闊的市場參與者之間。

然而,產業鏈的解耦絕非坦途。根據SemiAnalysis的測算,OpenAI的10萬台GB200算力平臺上一年的計算量,DeepSeek可能需要15個月來完成——算力仍然是一個無法迴避的物理規律。此外,CANN生態的成熟度、第三方庫支持、調試工具鏈仍不及CUDA,中小團隊遷移存在門檻。從「能跑」到「大規模商用好用」,差距依然存在。

但更重要的是方向。競爭格局正在從「英偉達+美國大模型」的單極世界,演變為「雙軌道並行」的多極世界。一條軌道以英偉達CUDA生態和OpenAI/Anthropic閉源模型為代表,延續高投入、高算力消耗、高定價的商業路徑;另一條軌道以DeepSeek開源模型和華為昇騰算力為代表,追求工程效率極致、低成本普惠化的開放路徑。兩條軌道的並存和競爭,將深刻塑造未來十年全球AI的分配格局和話語格局。

七、結語:護城河正在變成跑道

回到標題的設問:黃仁勛擔心的事為什麼正在發生?

答案藏在三條線索的交匯處:算法效率的持續躍升(V4單位算力成本降至前代的四分之一不到)、國產算力生態的加速成熟(八家國產芯片同步適配),以及全球產業鏈從單極依賴走向多極協同的深層重構。

資本市場的短期反應本質上是對英偉達壟斷溢價的重新定價。有分析尖鋭指出:當「中國AI不能沒有英偉達」的認知被打破,當低成本高效率的國產算力閉環開始運轉,美國科技股靠堆積算力構建的護城河就會加速乾涸。

然而,這並不意味着故事的終局已經到來。DeepSeek仍面臨嚴峻的算力瓶頸,V4-Pro至今服務吞吐量有限;華為Ascend芯片在絕對算力上與前沿GPU仍存在顯著差距;開源模型降低行業准入門檻的同時,也在重構DeepSeek自身的競爭壁壘。這場博弈的競爭烈度只會越來越大。

但可以確定的是,黃仁勛所擔心的「災難」——一個不再完全依賴美國芯片的前沿AI模型——已經不再是假設,只是時間表的問題。正如貫穿全文的弦外之音所示:真正的「災難」或許不是某一個模型被替代,而是整個生態的依賴慣性被打破后,舊格局的企業再也無法用舊方法定價未來。這正是黃仁勛擔心的事正在發生的全部含義。

 

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。