繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

大摩:市場低估了明年潛在的「AI重大利好」,但存在關鍵的不確定性

2025-10-09 14:16

  炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!

(來源:網易科技)

本文作者:龍玥

來源:硬AI

一場由算力驅動的AI能力大躍升可能正在醖釀。

據硬AI,摩根士丹利在一份最新報告中表示,市場可能嚴重低估了即將在2026年出現的一項人工智能領域的重大利好——由算力指數級增長驅動的模型能力「非線性」飛躍。

根據這份由Stephen C Byrd等分析師撰寫的報告,多家美國大型語言模型(LLM)開發商計劃到2025年底,將其用於訓練前沿模型的算力提升約10倍。這一前所未有的算力投入,預計將在2026年上半年產出結果,構成一個「未被充分重視的催化劑」。

報告援引了特斯拉首席執行官埃隆·馬斯克的觀點,即10倍的算力投入可能使模型的「智能」水平翻倍。報告指出,如果當前的「規模法則」得以延續,其帶來的后果可能是「地震級」(seismic consequences)的,將廣泛衝擊從AI基礎設施到全球供應鏈的各類資產估值。

然而,這一樂觀前景並非板上釘釘。報告強調,其面臨的核心不確定性在於AI發展是否會撞上「規模牆」(Scaling Wall)。這指的是,在投入海量算力后,模型能力的提升卻出現迅速遞減的令人失望的結果。

算力十倍增長,或催生AI能力飛躍

報告認為,投資者需要為2026年可能出現的AI能力階梯式提升做好準備。

報告描述了即將到來的算力規模:一個由Blackwell GPU組成的1000兆瓦數據中心,其算力將超過5000 exaFLOPs(每秒五百京次浮點運算)。相比之下,美國政府一臺名為「Frontier」的超級計算機算力僅略高於1 exaFLOP。這種量級的算力增長,是市場預期AI能力將出現非線性提升的核心依據。

報告稱,儘管許多LLM開發者普遍認同算力投入將帶來能力提升,但也有懷疑論者認為,前沿模型的智能、創造力和解決問題的能力可能存在上限。

「規模牆」之辯:AI進步的關鍵不確定性

儘管前景令人興奮,但報告同樣明確指出了其中的關鍵風險——「規模牆」(Scaling Wall)的存在。

這一概念指的是,當投入的算力達到某個閾值后,模型在智能、創造力和解決問題能力上的提升會迅速減少,甚至令人失望。這是目前AI領域最大的不確定性。許多懷疑論者認為,簡單地增加算力可能無法持續帶來智能的飛躍。

然而,報告也提到了一些積極信號。一篇由Meta、弗吉尼亞理工和Cerebras Systems團隊聯合發表的近期研究論文《揭祕LLM預訓練中的合成數據》發現,在使用合成數據進行大規模訓練時,並未觀察到可預見規模內的性能退化模式,即所謂的「模型崩潰」(model collapse)現象。

這一發現令人鼓舞,因為它暗示了在算力大幅增加后,模型能力仍有持續提升的空間,撞上「規模牆」的風險可能低於預期。

此外,報告還列舉了其他關鍵風險,包括AI基礎設施的融資挑戰、歐盟等地的監管壓力、數據中心面臨的電力瓶頸,以及LLM被濫用或武器化的可能性。

全球資產估值如何重塑?

如果AI能力確實實現非線性躍升,資產價值將如何重塑?報告認為投資者應開始評估其對資產估值的多方面衝擊,並指出了四個核心方向:

本文來自微信公眾號「硬AI」,關注更多AI前沿資訊請移步這里

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。