繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

DeepSeek降本祕訣曝光:2招極致壓榨推理部署,算力全留給內部AGI研究

2025-07-05 10:33

DeepSeek R1橫空出世第128天,已經把整個大模型市場攪得天翻地覆!

首先,它以一己之力把推理模型的價格打下來,OpenAI六月更新的o3價格相比o1直接打了2折

 

其次,第三方平臺託管的DeepSeek模型使用量瘋狂增長,比剛發佈時漲了將近20倍成就了大批雲計算廠商

 

然而,DeepSeek自家的網站和API市場份額卻不斷下降,跟不上AI產品上半年持續增長的節奏了。

 

以上數據來自SemiAnalysis發佈的一篇報告,詳盡解讀了DeepSeek對AI模型競賽的影響以及AI市場份額的現狀。

 

揭開DeepSeek的降本祕訣

DeepSeek剛發佈時確實火得一塌糊塗,但四個多月過去了,情況卻有點微妙。

從數據來看,DeepSeek自家網站和API的流量不升反降,市場份額也在持續下滑。

到了5月,全網DeepSeek模型產生的token中,來自DeepSeek本家的份額已經只佔16%了。

 

網頁版聊天機器人流量也大幅下降,而同期其他主要大模型網頁版流量都在飆升。

 

DeepSeek V3與R1模型都經過版本更新,能力與1月相比更強了,價格又便宜,怎麼用户反而跑了呢?

這種「牆內開花牆外香」的現象,背后其實大有文章。

SemiAnalysis指出,DeepSeek爲了把成本壓到極致,在服務質量上還是做了大量妥協

用户在DeepSeek官方平臺上使用模型,經常要等上好幾秒才能看到第一個字蹦出來,可以用首token延迟(First token latency)這個指標來衡量。

相比之下,其他平臺雖然普遍價格更貴,但響應速度快得多,有些甚至能做到幾乎零延迟。

在Parasail或Friendli等平臺,只需支付3-4美元就可以獲得幾乎沒有延迟的100萬token額度。

如果想選擇更大更穩定的服務商,微軟Azure平臺價格是DeepSeek官方的2.5倍,但延迟減少了整整25秒。

從另一個角度看,DeepSeek官方甚至不是同等延迟下價格最低的一家DeepSeek模型服務商。

 

如果在這張圖上用氣泡大小表示上下文窗口,可以看出DeepSeek在價格與性能之間的另一個權衡。

在有限的推理計算資源下,只提供64k上下文窗口的服務,在主流模型提供商中算是最小的之一。

在需要讀取整個代碼庫的編程場景里,64K根本不夠用,用户只能選擇第三方平臺。

而同樣價格下,Lambda和Nebius等平臺能提供2.5倍以上的上下文窗口。

 

DeepSeek還把很多用户的請求打包在一起處理,雖然每個token的成本降下來了,但每個用户等待的時間也增加了。

大模型下半場:提升每個token的智能

需要明確的是,這些降本策略都是DeepSeek主動做出的決定。

他們目前看上去對用户體驗不怎麼感興趣,既無意從用户身上賺錢,也無意通過聊天應用或API服務向用户提供大量token,更多地是專注於實現AGI

從這些優化策略就可以看出,DeepSeek把儘可能少的算力用作推理服務給外部使用,大量的算力資源留在內部研發用途

同時配合開源策略,讓其他雲服務託管他們的模型,贏得影響力和培養生態,兩不耽誤

説到底,AI競賽拼的還是算力資源。

在DeepSeek影響下,Claude也開始降低速度緩解算力緊張的問題,但爲了營收還是在努力平衡用户體驗。

Claude 4 Sonnet發佈以來,輸出速度已經下降了40%,但仍然比DeepSeek快不少。

另外Claude模型被設計成生成更簡潔的回覆,回答同樣的問題,DeepSeek和Gemini可能要多花3倍的token。

 

種種跡象表明,大模型供應商正在多維度地改進模型。

不僅僅是提高模型的智能上限,而是提升每個token能提供的智能

參考鏈接:[1]https://semianalysis.com/2025/07/03/deepseek-debrief-128-days-later/#speed-can-be-compensated-for

本文來自微信公眾號「量子位」,作者:關注前沿科技,36氪經授權發佈。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。