繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

硅谷豪賭2萬億!DeepSeek登頂Nature,Meta卻成2025最大輸家?

2025-12-28 13:41

  新智元報道  

  編輯:KingHZ

  【新智元導讀】2025年,AI從幻想到現實,AGI祛魅而ASI初現端倪。科技巨頭們競相追逐超級智能,世界正被撕裂成兩個平行宇宙:AI擁抱者與旁觀者。投資熱潮湧動,模型能力躍升……這不僅僅是技術革命,更是人類命運的轉折點。

  2025年,全球AI領域風起雲涌。

  通用人工智能(Artificial general intelligence,AGI)開始祛魅,超級人工智能(Artificial Super Intelligence,ASI)開始登上舞臺。

  Anthropic高管Jack Clark警告:鉅變在即,而AI將把世界撕裂為兩個平行宇宙。

  這一切都是一個長期發展過程的產物,是AI技術、資本、就業和生活交織變革在一起的產物。

  • AI模型能力躍升,但距離AGI仍有爭議:研究顯示,2025年AI模型在推理、多模態處理和智能體上取得顯著進步。

  • 投資熱潮推動基礎設施擴張:全球AI投資激增,生成AI吸引339億美元資金,科技巨頭資本支出達4000億美元,引發了泡沫擔憂和能源消耗討論。

  • 勞動力變革加速,機遇與挑戰並存:AI正重塑職場,使用AI工具可能成為求職關鍵。

  • 應用擴展到日常生活,卻未徹底顛覆:AI智能體和機器人進入生產、醫療等領域,似乎提升了效率,但許多人感受到變化有限。

  通用人工智能不是終點,超級智能纔是起點。

  當真正的AI競賽始於通用人工智能之后!

  AI一年,人類千年

  至今,自然界的一切智能都是生物智能,都是碳基智能。

  但今年的LLM可能是人類有史以來第一次創造出的全新智能形態。

  在2025年度回顧中,Karpathy直言:

  2025年是我(以及我認為整個行業)首次開始以更直觀的方式內化理解LLM智能的‘形態’。

  在推理、多模態處理和智能體上,2025年AI模型取得了顯著進步,如OpenAI的o3系列和Google的Gemini 3。

  雖在實際應用中仍存侷限性,但AGI曙光現已成為今年行業的共識。

  在一系列技術任務中,從ChatGPT到Gemini,許多世界領先的AI模型正超越人類基準線。

  據斯坦福大學《2025年AI指數報告》,AI已在7項測試中超越人類基準線,這些測試衡量的任務包括:

  • 圖像分類

  • 視覺推理

  • 中等閲讀理解

  • 英語語言理解

  • 多任務語言理解

  • 競賽級數學

  • 博士級科學問題

  目前,AI系統唯一尚未趕上人類的領域是多模態理解與推理。這項任務涉及跨多種格式和學科(如圖像、圖表、圖解)進行處理和推理。

  然而,這一差距正在迅速縮小。

  MMMU基準測試,評估模型在需要大學學科知識的跨學科任務上的表現。

  MMMU數據集的四大特性:(1)全面性:涵蓋六個廣泛學科領域與30個大學科目,包含1.15萬個大學難度級別的問題;(2)圖像類型高度異質:包含極其多樣化的圖像類型;(3)圖文並茂:文本與圖像交錯混合,需要跨模態理解;(4)專家級感知與推理:要求具備紮根於深厚學科知識的專家級感知與推理能力。

  此基準測試日益飽和:

  在2023年底,谷歌Gemini的得分僅為59.4%。

  到2024年,OpenAI的o1模型取得了78.2%的分數。

  今年,Gemini 3 Pro在增強版MMMU-Pro上取得了89.8%的得分。

  斯坦福AI指數報告顯示,生成AI投資達339億美元,同比增長18.7%。

  前沿實驗室每8-12周發佈新模型,OpenAI的o3系列(包括o3-mini)以‘先思考后回答’的推理機制脫穎而出,使用10倍token提升智能,但成本也相應增加。

  谷歌的Gemini 3被譽為多模態巔峰,能處理文本、圖像、視頻和音頻,實現深度推理。

  在Reddit上,年初,關於前沿AI模型開放獲取的討論十分熱烈。

  DeepSeek-R1及其開源蒸餾版本主導了相關話題。不過,用户指出本地可運行的版本是蒸餾模型(8B或32B參數)而非完整的671B版本,其性能大致相當於GPT-3.5水平。

  更深層的討論焦點在於DeepSeek的開源決策——儘管據報道其實現了45倍的訓練效率提升。

  隨后,有研究者在3B參數模型上以低於30美元的成本復現了DeepSeek-R1-Zero的強化學習訓練方案。

  通用人工智能測試基準ARC-AGI-1,最佳成績超過近90%;ARC-AGI-2上,AI超過了人類平均水平。

  但Yann LeCun指出,自迴歸LLM有侷限,需更多感官數據。

  總體,2025年AI從‘聊天機器人’轉向‘智能體’,如Agentic AI,能自主規劃和執行任務。

  AGI決賽在未來2-3年

  如果説前幾年是‘把模型做大’,2025年更像是‘把模型落地’。

  圍繞代碼、推理、多模態、長上下文與企業可用性,國外幾家AI巨頭爭分奪秒,寸土必爭。

  關於AI未來的討論,變得越來越宏大而真實。科技領袖們越來越多地談及追求通用人工智能(AGI)乃至最終的超人工智能。

  AGI指能在廣泛任務中匹敵人類智能的AI系統,而ASI則指超越人類能力的系統。

  六月,扎克伯格成立Meta超人工智能實驗室,瞄準‘個人超級智能’。

  九月,奧特曼表示社會需為2030年前可能出現的ASI做好準備。

  Anthropic現任CEO堅信,到2027年,AI將在‘幾乎所有領域’超越人類。

  而以樂觀預測著稱馬斯克更是斷言,明年AI的智力將超越最聰明的人類。

  這些科技巨頭不願錯過AI浪潮。

  扎克伯格稱,寧願‘冒險誤投數千億美元’,也不願在超智能時代落后。

  以6320億美元淨資產位居世界首富后,馬斯克告訴xAI全體員工:

  若能挺過未來兩到三年,xAI則有望成為AI的勝利者。

  Databricks CEO等領袖認為行業已實現AGI,而DeepMind聯合創始人哈薩比斯等則更謹慎,稱AGI可能‘在未來五到十年內’到來。

  儘管時間表存在分歧,科技領袖們普遍認同一點:AI進步正在加速疊加。

  這種加速肉眼可見。

  一年內,OpenAI發佈了約30多項新產品和重大更新:

  • 年初:高效模型和智能體(如Operator、o3-mini);

  • 年中:多模態和智能體工具(如Sora 2、AgentKit);推出開放權重模型(如GPT-OSS)和GPT-5;

  • 年末:優化專業任務(如GPT-5.2系列)和創意工具(如ChatGPT Images)。

  谷歌、Anthropic和xAI也各領風騷:

  在年初看來宛如魔術的功能,如今已習以為常。

  中國開源AI崛起

  DeepSeek年度最大黑馬

  2025年,開源社區也熱鬧非凡。

  圍繞LLaMA、DeepSeek、Mistral以及各類大模型方案,出現了大量工程化工具鏈:從微調(fine-tuning)框架、推理加速、到本地部署一體化方案,門檻持續下降。

  中國開源模型崛起,Llama徹底出局。

  DeepSeek成為年度最大黑馬。DeepSeek-R1成為歷史上第一個通過同行評議的大模型,喜登Nature封面;創始人梁文鋒入選Nature年度10大人物。

  Mamba在初期備受關注后,逐漸淡出視野,在研究之外缺乏實際應用。

  Reddit網友指出,雖然Mamba在理論上展現出潛力,但 Transformer 模型已在硬件和軟件層面深度優化,使得用未經驗證的架構重新訓練大型模型在經濟上難以證明其合理性,特別是當結果與現有模型相當或更差時。

  甚至Mamba的實際性能與優化后的Transformer模型相當或更差。

  成熟的Transformer軟件生態系統帶來了巨大的轉換成本,且Mamba的固定狀態內存無法選擇性地檢索被忽略的 token。

  在計算機視覺領域,Vision Transformer是否已取代CNN的問題仍存在爭議。

  Reddit討論顯示,Transformer在許多任務中越來越受青睞,並在大數據集上表現出色,但CNN和混合架構在小數據集、醫學影像和特定領域仍具競爭力。

  Reddit網友指出ConvNeXt是強有力的替代方案,Transformer需要更多內存且難以處理可變圖像分辨率,數據集質量比架構選擇更重要。

  為未來做好準備

  在過去一年中,記者Lee Chong Ming傾聽了超過50位科技領袖關於人工智能的深度討論。

  從執掌萬億級企業的巨頭到押注AI未來的年輕創業者,他們的洞見揭示了AI如何重塑工作生態與未來走向。

  在董事會、行業峰會與播客訪談中,除了AI在加速,還有3大最常見的觀點。

  1. 善用AI,否則你可能被更懂AI的人取代

  英偉達CEO黃仁勛今年已多次強調:

  每份工作都會受到影響,而且是立刻受到影響。這是毋庸置疑的。你不會被AI取代,但你可能會被更善於使用AI的人取代。

  其他科技領袖也呼應這一觀點,有人指出年輕員工可能更具優勢,因為他們已習慣使用AI工具。

  OpenAI的奧特曼八月在YouTube節目‘Huge Conversations’中表示,雖然AI將不可避免淘汰某些崗位,但大學畢業生更有能力適應變化。

  如果我現在22歲剛畢業,我會覺得自己是史上最幸運的一代。

  奧特曼補充道,他更擔憂年長員工將如何適應AI重塑的工作環境。

  ‘AI教母’、斯坦福大學教授李飛飛直言,相較於學位,掌握新工具的能力更重要。

  她認為,抗拒AI是職業發展的致命傷。在她的初創公司World Labs中,她不會僱傭拒絕使用AI工具的工程師。

  這種轉變已在日常工作中顯現。

  2. 軟技能在AI時代更具價值

  科技領袖們達成的另一共識是:AI使軟技能變得更為重要

  五月,Salesforce首席未來官 Peter Schwartz告訴媒體:

  最重要的技能是同理心,是與人協作的能力,而非編程知識。 有家長問我孩子該學什麼,是否該成為程序員?我説‘學會如何與他人合作’。

  領英亞太區首席經濟學家Chua Pei Ying七月也表示,她觀察到:對資深員工和應屆畢業生,溝通協作等軟技能都日益重要。

  隨着AI自動化部分工作、使團隊更精干,工作中的人性化部分開始愈發關鍵。

  3. 人類必須居於AI的核心地位

  許多領袖在AI加速發展中反覆強調人類掌控的必要性。

  微軟AI負責人蘇萊曼表示,超人工智能必須支持而非壓制人類自主性。

  他在十一月表示,團隊正‘試圖構建人道主義的超人工智能’,並警告比人類更聰明的系統將難以控制或與人類利益對齊。

  Anthropic CEO阿莫代直言AI被誤用的風險。

  在二月,他表示,先進AI雖能降低知識工作門檻,但風險與回報同步增長。

  我們的負責任擴展政策只關注三大風險領域:AI自主性、以及化學、生物、放射性與核威脅。 

  這涉及可能危及數百萬人生命的AI自主性嚴重濫用。

  被譽為‘AI教父’的傑弗里·辛頓八月指出,當AI系統超越人類智能時,保護人類將成為核心挑戰。

  我們必須確保當它們比我們更強大、更聰明時,依然在乎人類。

  2025年AI雖未‘顛覆一切’,但奠定基礎。

  Karpathy稱AI跨過‘英語編程’門檻。

  未來,需關注人文超級智能,確保AI服務人類。無論你是從業者還是普通人,學習AI工具是關鍵。

  這一年,AI從炒作到現實,提醒我們:技術是工具,智慧在人。

(聲明:本文僅代表作者觀點,不代表新浪網立場。)

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。