繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

DeepSeek會在全球AI競爭中沉淪嗎?

2025-06-03 13:31

原標題:DeepSeek會在全球AI競爭中沉淪嗎?

5月28日,DeepSeek小助手在官方交流羣中發佈通知稱,DeepSeek R1模型已完成小版本試升級,歡迎前往官方網頁、App、小程序測試(打開深度思考),API接口和使用方式保持不變,DeepSeek並在Huggingface上新了DeepSeek-R1-0528,但這並不是從2月就開始宣傳的DeepSeek R2版本。

雖然不是DeepSeek R2,但據眾多網友實際測評,新版DeepSeek R1在性能和體驗上有明顯提升,並非只是DeepSeek官方所説的「微小變化」 ,而有Berkeley背景的代碼測試平臺Live CodeBench中顯示,DeepSeek-R1-0528當前已達第四,不過這個榜單沒有Claude 4。而根據X(Twitter)博主OpenRouterAI的比較,新版的確有變化,上下文長度(context length)更長,也更貴了。

來源:OpenRouterAI 來源:OpenRouterAI

此前5月13日,全球*的大模型整合應用平臺Poe發佈《2025年春季人工智能模型使用趨勢》報告。報告顯示,國內著名的大模型公司深度求索的DeepSeek R1的消息份額從2月中旬的高峰7%下降至4月底的3%,下降50%以上。Poe的報告表示,由於其他公司有競爭力的推理模型相繼發佈,DeepSeek的影響力似乎已減弱。

發送到人工智能模型的消息(隨時間的推移)

來源:Poe《2025年春季人工智能模型使用報告》

此次R1升級版本的發佈,似乎意在迴應外界質疑,為逐漸冷卻的市場情緒重新「加温」。此前,多家媒體曾報道稱,DeepSeek計劃在四月底至五月初發布新一代R2模型,甚至一度傳出「提前上線」的消息。

5月14日,梁文鋒及其團隊發佈一篇14頁論文,詳述在DeepSeek-V3的研發過程中,如何藉助2048塊H800 GPU實現超大規模集羣等效訓練,人們又開始期待R2在架構上的繼續升級,而此次的R1的發佈,似乎顯得比較有策略,既迴應了用户期待,又給自己留足了升級架構的時間。

異軍突起的「中國模型」

DeepSeek創始人梁文鋒的故事,讀者或許已耳熟能詳。1985年出生的他,從小就展現出超常的數學天賦,在集郵這一愛好中亦顯現出「以郵養郵」的商業頭腦。在浙江大學本碩畢業后,他起初對金融產生了濃厚興趣,與同學組隊探索機器學習在全自動量化交易中的應用,併成功賺取了人生*桶金。隨后,他創立了幻方量化,迅速在國內量化投資領域嶄露頭角。

梁文鋒在探索交易策略的時候,很早就注意到AI模型,2018年,他榮獲中國私募行業的最高獎項——金牛獎,並在頒獎典禮上發表主題演講《一名程序員眼中中國量化投資的未來》,首次系統闡述AI在量化投資中的廣闊前景。他在演講中提到:「量化投資的未來,是用技術讓市場更有效率。」

彼時金融行業大多數公司尚未了解AI大模型是何物,幻方量化再次於2019年前瞻性地大規模佈局AI算力,自主研發「螢火一號」訓練平臺,投資近2億元,配備1100塊GPU。2021年,投資加碼到10億元的「螢火二號」投入使用,搭載約1萬張英偉達A100顯卡。憑藉如此前期準備,恰逢2023年AI大模型迎來爆發之年,梁文鋒宣佈正式進軍通用人工智能領域,創辦杭州深度求索人工智能基礎技術研究有限公司,即DeepSeek。

DeepSeek採用差異化的技術路線,開發了新型MLA(多頭潛在注意力機制)和MoE架構,大幅降低顯存佔用和推理成本,僅為傳統MHA架構的5%-13%,2024年12月26日,DeepSeek發佈V3模型,使用2048顆H800 GPU,訓練成本僅557.6萬美元(對比GPT-4o的7800萬美元),性能卻超越多個開源模型,如Llama 3.1 405B,並可與GPT-4o、Claude 3.5 Sonnet等閉源模型競爭,被硅谷稱為「來自東方的神祕力量」。

2025年1月20日,DeepSeek發佈R1模型,部分性能可以追趕上當時*進的大模型之一OpenAI o1模型,而且DeepSeek能做到完全開源,7天內用户增長至1億,登頂中國和美國蘋果應用商店免費APP榜,超越ChatGPT。R1的成功進一步鞏固了DeepSeek的全球影響力,當即引發美國科技股拋售,如英偉達市值損失了6000億美元。

DeepSeek R1的發佈被業內譽為「AI的斯普特尼克(Sputnik)時刻」,Sputnik作為1957年蘇聯發射的*顆人造衞星斯普特尼克1號(Sputnik 1)的代稱,曾標誌着美蘇太空競賽達到的新高度。

美國總統特朗普也對DeepSeek給予正面評價,「深度求索低價但不低質的AI帶來的是積極的影響,因為這可以讓硅谷企業可以以更低的成本進行創新,而且DeepSeek給美國行業敲響警鍾,意味着美國企業需全力以赴與中國企業進行競爭。」

DeepSeek R1的發佈也引發業內專家和頭部公司的高度關注。NVIDIA CEO黃仁勛稱其為「送給全球AI行業的禮物」,Meta首席科學家楊立昆(Yann LeCun)則肯定其在開源和技術優化上的重大突破。微軟、OpenAI、亞馬遜等企業亦表達出對其技術實力的認可,其中亞馬遜的AWS Bedrock率先接入了DeepSeek。

彰顯自身技術實力以外,DeepSeek的崛起也標誌着中國AI正從「技術追隨者」向「自主創新者」轉型。長期以來,業內及全球投資人普遍認為,中國在AI核心技術領域難以實現真正的原創,更多扮演的是模仿和追隨者的角色。然而,DeepSeek的異軍突起打破了這一固有認知,其展現出強烈的技術自主性與前瞻佈局,如此發展下去,將重塑全球AI競爭格局。

DeepSeek的崛起引起全球高度警惕

很快,震撼變成了警惕,這種警惕又迅速轉化為具體的限制措施,地緣政治爭議和信任危機為DeepSeek的出海發展設置了結構性障礙。

微軟在DeepSeek發佈初期曾在其Azure雲服務上提供DeepSeek模型接入,但隨后迅速轉變態度,採取強硬禁用措施,封殺DeepSeek相關服務。Microsoft副董事長兼總裁布拉德·史密斯 (Brad Smith)5月8號在參議院聽證會上表示,「出於數據安全和宣傳方面的考慮,Microsoft員工不允許使用DeepSeek。」

同樣改變看法的還有OpenAI,在社交媒體上發表完「一款令人印象深刻的模型」評價之后的第二天,1月29日,OpenAI公開指控DeepSeek使用「蒸餾技術」(Model Distillation),通過提取ChatGPT的輸出數據訓練其開源模型R1,涉嫌違反服務條款。

3月13日,OpenAI向美國政府正式提交了一份長達15頁的信函,信中稱,DeepSeek的模型可能受到中國的操控,使用這些模型可能帶來重大風險,尤其是在關鍵基礎設施和高風險應用中。OpenAI在信函中還提出「應實施AI出口管制」,限制向中國等國出口美國AI技術,「禁止在政府設備上使用DeepSeek」等措施。

有些專家對此評論道,這份報告從根本上反映了美國科技界對中國人工智能實力迅速崛起的深度警惕,特別是在DeepSeek於底層技術與開源生態方面取得關鍵突破的背景下。

《金融時報》引述加州大學伯克利分校AI政策研究員里特維克·古普塔(Ritwik Gupta)的觀點,「AI能力沒有護城河」,而英特爾前CEO帕特·基辛格(Pat Gelsinger)亦表示,資源受限反而激發了中國團隊的創造力。多重信號表明,圍繞人工智能主導權的地緣政治競爭將持續升溫,並進入一個更加複雜的競爭態勢。

針對DeepSeek出現的新情況,並不侷限在幾家人工智能科技公司,從DeepSeek R1發佈伊始,美國各類智庫就對美國科技產業發展、中 美競爭及出口管制政策制定等方面展開討論,西方學者普遍認為,DeepSeek問世彰顯出中國能夠以低成本輸出高質量AI產品的實力,促進資源共享和推動競爭,同時也存在數據安全隱患,並對美國人工智能先進地位產生威脅。

來源:《大跳躍:美國智庫論DeepSeek中國人工智能》,《智庫理論與實踐》2025年3月第10卷第2期 來源:《大跳躍:美國智庫論DeepSeek中國人工智能》,《智庫理論與實踐》2025年3月第10卷第2期

不只是研究層面,事實上,美國多個政府部門開始對DeepSeek採取限制措施。如美國商務部、國防部以及德克薩斯州、紐約州和弗吉尼亞州在內的多個美國州已禁止在政府設備上使用DeepSeek。

美國在立法層面也加大了限制力度。2025年2月,參議員喬什·霍利(Josh Hawley)提出《美國人工智能能力與中國脱鈎法案》,明確禁止美國個人或機構下載、使用DeepSeek開發的應用程序,違者最高可判20年監禁並罰款100萬美元。法案還禁止與中國在AI領域的學術合作、技術轉移和投資,違規行為將面臨重罰。

美國以外,多個國家和地區出於國家安全、數據隱私和技術主權的考量,禁止在政府機構、公共部門或關鍵基礎設施設備上安裝或運行DeepSeek的相關應用與模型。

2025年1月底,意大利成為全球*禁用DeepSeek的國家,其數據保護局(Garante)以潛在隱私風險為由,禁止政府機構和公共部門使用DeepSeek;主要理由是DeepSeek收集的用戶數據存儲在中國服務器上,可能違反歐盟《通用數據保護條例》(GDPR)。

澳大利亞政府則於2月4日正式發佈禁令,禁止所有聯邦政府設備使用中國公司DeepSeek開發的人工智能程序R1,理由是基於「國家安全考量」和「不可接受的安全風險」。

韓國不僅在政府部門禁用DeepSeek,部分大型企業如水力原子力、Kakao、LG U+等也相繼禁止使用。韓國國防部、產業通商資源部等重要政府機構已下令禁止內部使用DeepSeek,並全面封鎖DeepSeek相關應用在韓國各大應用商店的下載渠道。

對此,中國外交部發言人郭嘉昆迴應道,中國政府高度重視並依法保護數據隱私和安全,從來沒有也不會要求企業或個人以違法的形式採集或存儲數據。而DeepSeek自身的公關策略比較側重於技術實力與合規的正面塑造,試圖緩解國際社會的質疑和壓力。

對於前者,DeepSeek主動公開其模型代碼、技術論文及訓練細節,例如其發佈53頁技術報告,詳細披露R1的訓練細節,對於后者,DeepSeek則通過學術界背書,如MIT媒體實驗室的審計報告,證明其隱私保護強度高於美國企業平均水平,還通過法律團隊向歐盟監管機構提交合規説明,解釋數據跨境傳輸的加密措施,此外DeepSeek能借助開源優勢,在Github、Huggingface等技術社區與開發者積極互動,以Github為例,其中DeepSeek V3的Star數量達到9.72萬,DeepSeek R1的Star數量也能達到8.95萬。

然而,DeepSeek當前的應對策略尚不能阻止上述國家的政府設備禁令、歐盟的監管調查以及安全漏洞爭議。在國家安全高度敏感的背景下,單靠技術層面的解釋與反駁,難以真正撼動政策制定者對其潛在風險的判斷。可以預見,DeepSeek的全球發展之路仍將面臨重重阻力與結構性挑戰。

DeepSeek還能挑戰AI巨頭嗎

在5月28日重新回到公眾視線之前,DeepSeek經歷了長達三個月的沉寂期。外界對梁文鋒的動向和團隊的進展一無所知,只是聽到DeepSeek R2的傳聞一遍遍在重複。

早在今年2月,路透社就曾報道R2預計於4月底或5月初發布。到了3月,市場一度傳出「3月17日提前發佈」的消息,但隨后被DeepSeek闢謠。此后,情況變得愈發神祕。直到5月28日R1 0528版本發佈之際,仍有自媒體和博主在追問:到底還有沒有R2。

然而競爭對手的行動並沒有按照DeepSeek的節奏來進行。

OpenAI很快發佈了o3系列模型,作為o1的升級版本,顯著提升了數學、科學和複雜推理任務中的表現。o3引入了「私有思維鏈」機制,使模型在生成回答前進行更深入的思考,儘管響應時間有所增加,但準確性和深度得到了增強。緊接着,GPT-4.5 「Orion」、深度研究功能面世,在推出o3正式版的同時,又推出了o4-mini,進一步向着低幻覺、高情商方向進發,最近亦有GPT-5的消息傳出,旨在將多個產品整合為統一系統。

OpenAI的長期競爭對手Anthropic則於2月推出Claude 3.7 Sonnet,其通過模型壓縮技術降低運行成本,並強化數據隱私保護。到5月23日,Claude Opus 4和Claude Sonnet 4同時推出,前者可連續7小時不間斷生成工業級高質量代碼,后者則在權威軟件工程評測SWE-bench中以72.7%的成績超越多數競品。

Google也沒有落后。在2025年5月的Google I/O大會上,Google發佈了Gemini 2.5 Pro和Flash版本,在編程和複雜推理任務中表現優異,該模型在發佈后大約六周就佔據了Poe近30%的推理消息市場份額,超越DeepSeek R1。值得一提的是,Gemini能夠在單一工作流程中無縫處理文字、圖像、音頻、視頻,包括攝像頭和代碼庫信息。

帶有推理能力的模型在文本子類別中的消息份額

來源:Poe

此外,阿里巴巴開源的大模型Qwen3、馬斯克旗下xAI的Grok-3,以及Meta的Llama 4均在今年上半年陸續亮相,展現出強勁實力,均可能成為DeepSeek在全球市場上的潛在競爭對手。

在權威大模型評測平臺Chatbot Arena LLM Leaderboard上,DeepSeek R1目前已下滑至第9位,前列基本被上述主要競品佔據。值得注意的是,DeepSeek-V3-0324作為V3模型的升級版本,於3月24日發佈,重點提升了編程能力。DeepSeek並非沒有持續優化,但仍然趕不上競爭對手的步伐。

從用户下載與活躍度的角度,我們也做了調研。據手機下載排名權威網站Sensor Tower旗下的Data.ai顯示,DeepSeek僅僅在全球下載排名中目前穩定在第11位,而用户活躍度、使用時長(Total Time Rank)、用户滲透(Usage Penetration Rank)等排名中,前100名均看不到DeepSeek的身影。

iphone下載總排名及免費榜排名(2025.5.27)

來源:Data.ai

而從蘋果App Store排行榜中,選擇美國,我們也無法在前100名中看到DeepSeek,而其競爭對手ChatGPT和Gemini卻穩坐*名和第四名,這與今年1月28日的景象完全不同,當時DeepSeek超越了ChatGPT取得了*名的位置。

App store美國iphone 應用排名

(左:2025.5.27,右:2025.1.28),來源:apple

從近期多項數據來看,DeepSeek的市場份額出現下滑並非偶然,其背后有跡可循。綜合業內分析與實測反饋,原因大致可歸結為以下三方面。

*,新旗艦模型往往「快速蠶食」舊模型。DeepSeek R1的「病毒式傳播」在2月中旬到達頂峰,但隨着其他模型的快速崛起,用户注意力被更優質的模型所吸引,如Gemini 2.5 Pro和OpenAI的o3、o4系列,「一代」產品幾乎無法和「二代」、「三代」競爭,自然削弱了R1的競爭力。從5月28日這版發佈可以看出,在憋大招的DeepSeek已經意識到了問題,並追趕上了。

第二,X用户@KuittinenPetri指出,DeepSeek R1的*問題是「推理速度慢」,尤其在高頻交互場景中,如實時對話,相比競爭對手慢了不少。R1的MoE架構(6710億參數,370億活躍參數)雖降低訓練成本,但推理仍需高性能硬件,如英偉達最新一代GPU

第三,與大廠生態基本沒有綁定。OpenAI和Gemini通過與Azure、Google等平臺的深度整合,提供了更無縫的開發者體驗,國內的Qwen與阿里生態的綁定,豆包與字節跳動的綁定,在數據猿發佈的文章《別再瞎搜了!這個「高搜商」AI「先思考后搜索」秒解生活難題 》中,我們分析了夸克產品搭載了阿里的大模型成為阿里AI的重要入口,根據Data.ai的最新數據,夸克的iphone下載量在中國排名第六。

DeepSeek已經掌握「微調」,

它還有大棋局

業內久盼的DeepSeek R2並未如期而來,只盼來了DeepSeek R1以優化為主的版本,然而正是這些「微小」的變化消除了上一版本40%-45%的幻覺,帶給用户更爲準確的結果。據悉,這次升級主要集中在以下幾個方面:

☆深度思考能力強化:平均每題思考token數從12K增加至23K,反映其在解題過程中進行了更為詳盡和深入的思考

☆複雜推理任務表現顯著提升:通過加大后訓練階段的算力投入,顯著增強了「深度思考」能力,在AIME(數學)、GPQA(科學)、LiveCodeBench(代碼生成)、Humanity’s Last Exam(推理與百科知識)等測試中大幅超越了自身水平,也超越一眾競爭對手

☆促進蒸餾小模型的開發:蒸餾DeepSeek-R1-0528 的思維鏈后訓練Qwen3-8B Base,得到了DeepSeek-R1-0528-Qwen3-8B,其亦在AIME測試中取得了僅次於新版DeepSeek的分數,而超越原始的Qwen3-8B(+10.0%),這對於學術界推理模型的研究和工業界針對小模型的開發都將具有重要意義

☆創意寫作更簡便更像人類:新版R1在原有基礎上,對議論文、小説、散文等文本類型進行了深化優化,具備生成更長篇幅、更具結構性和內容完整性的能力,同時展現出更符合人類審美與表達習慣的寫作風格。

另外值得注意的是,DeepSeek R1 0528版本在Live CodeBench權威大模型測評和Artificial Analysis 報告中,分別排名第四和第二。從開源大模型來看,DeepSeek在1月憑藉*個R1版本成為*躋身榜單排名第二的開源權重模型;而今天發佈的R1更新,再次將其推回這一位置。

最新大模型評測(2025-05-29),來源:Live CodeBench 最新大模型評測(2025-05-29),來源:Live CodeBench
來源:Artificial Analysis 來源:Artificial Analysis

而此前的5月14日,梁文鋒及其團隊發佈的回顧性論文《深入解讀 DeepSeek-V3:AI架構的擴展挑戰與硬件思考》(Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures),或許纔是真正展現DeepSeek底層實力與技術深度的關鍵信號。

我們看到,該論文深入剖析了DeepSeek-V3(6710億參數,370億活躍參數,MoE架構)的架構設計與硬件協同優化,強調如何通過軟硬件協同設計實現成本高效的訓練和推理。 

來源:https://arxiv.org/html/2505.09343v1 來源:https://arxiv.org/html/2505.09343v1

一方面,論文介紹了DeepSeek-V3在模型架構的創新是如何提升內存效率和計算性能的。其中,多頭潛在注意力機制(MLA)通過壓縮注意力機制中的鍵值緩存,顯著減少了內存佔用,提升推理效率;混合專家架構(MoE)則優化了計算與通信之間的權衡;FP8混合精度訓練的應用,充分發揮了硬件的計算潛力,降低了訓練成本。

另一方面,面對大規模語言模型訓練帶來的硬件挑戰,論文提出了硬件感知的模型協同設計策略。DeepSeek-V3在2048塊NVIDIA H800 GPU上進行訓練,採用了多平面網絡拓撲結構(Multi-Plane Network Topology),有效減少了集羣級別的網絡開銷,提升了通信效率,以滿足日益增長的AI工作負載需求。 

DeepSeek-V3的基本架構

來源:https://arxiv.org/html/2505.09343v1

這篇論文展示了DeepSeek在對幻覺優化之外,架構層面的創新方向:隨着模型規模的不斷擴大,當前硬件架構在內存容量、計算效率和互連帶寬等方面的限制日益突出。為應對這些挑戰,論文建議未來的AI系統應注重硬件與模型的協同設計,探索智能網絡、內存中心的創新以及網絡內計算與壓縮等方向,為下一代AI系統的設計提供了理論基礎和實踐指導。恐怕這纔是梁文鋒及團隊真正發力之處。

不過R1 0528版本的發佈,也讓我們欣喜地看到,DeepSeek正逐步走出實驗室,邁向更廣闊的世界。它似乎正借鑑OpenAI、Anthropic等模型巨頭的戰略,把控產品節奏,不斷重燃市場信心,並逐步培育起一批具有「信仰感」的核心用户羣體。

值得注意的是,DeepSeek在全球開發者開源社區方面做了很多努力,通過MIT協議開源R1並構建開放生態來重塑其國際形象。雖然當前尚未形成類似Meta Llama那樣的「飛輪效應」,如果DeepSeek在性能和工具鏈方面進一步實現突破,並提供更加友好的部署與微調能力,那麼DeepSeek或許有機會繞開主流市場封鎖,從全球開發者羣體走出一條非典型的國際增長曲線。

要真正撬動這一增長曲線、實現從技術輸出到全球化運營的轉變,DeepSeek面臨的已不僅是模型能力的比拼,更是一場關於「信任+生態+節奏」的全面戰鬥。

在信任層面,AI已不是一場純粹的技術競賽,而是信任機制的較量。誰能贏得用户、開發者和社會對其價值觀、安全性與可持續性的信任,誰才能獲得客户的長期信賴;生態層面,模型只是起點,真正決定競爭力的,是應用能力、開發者工具鏈以及落地生態的廣度與深度;開發節奏上,面對全球市場的技術競速,唯有持續迭代、快速響應,才能不斷為用户帶來優良體驗,保持競爭優勢。

毫無疑問,未來的征程將是一場圍繞信任與生態的系統性博弈。DeepSeek的技術突破固然打開了通往全球的大門,但能否穿越複雜的國際環境、以透明實踐贏得信任,並構建真正開放協作的全球AI生態,纔是其能否引領下一波人工智能浪潮的關鍵所在。在全球AI格局尚未定型的當下,DeepSeek仍握有機會,關鍵在於它能否真正接得住這場時代的挑戰。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。