熱門資訊> 正文
2025-10-09 14:16
炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!
(來源:網易科技)
本文作者:龍玥
來源:硬AI
一場由算力驅動的AI能力大躍升可能正在醖釀。
據硬AI,摩根士丹利在一份最新報告中表示,市場可能嚴重低估了即將在2026年出現的一項人工智能領域的重大利好——由算力指數級增長驅動的模型能力「非線性」飛躍。
根據這份由Stephen C Byrd等分析師撰寫的報告,多家美國大型語言模型(LLM)開發商計劃到2025年底,將其用於訓練前沿模型的算力提升約10倍。這一前所未有的算力投入,預計將在2026年上半年產出結果,構成一個「未被充分重視的催化劑」。
報告援引了特斯拉首席執行官埃隆·馬斯克的觀點,即10倍的算力投入可能使模型的「智能」水平翻倍。報告指出,如果當前的「規模法則」得以延續,其帶來的后果可能是「地震級」(seismic consequences)的,將廣泛衝擊從AI基礎設施到全球供應鏈的各類資產估值。
然而,這一樂觀前景並非板上釘釘。報告強調,其面臨的核心不確定性在於AI發展是否會撞上「規模牆」(Scaling Wall)。這指的是,在投入海量算力后,模型能力的提升卻出現迅速遞減的令人失望的結果。
算力十倍增長,或催生AI能力飛躍
報告認為,投資者需要為2026年可能出現的AI能力階梯式提升做好準備。
報告描述了即將到來的算力規模:一個由Blackwell GPU組成的1000兆瓦數據中心,其算力將超過5000 exaFLOPs(每秒五百京次浮點運算)。相比之下,美國政府一臺名為「Frontier」的超級計算機算力僅略高於1 exaFLOP。這種量級的算力增長,是市場預期AI能力將出現非線性提升的核心依據。
報告稱,儘管許多LLM開發者普遍認同算力投入將帶來能力提升,但也有懷疑論者認為,前沿模型的智能、創造力和解決問題的能力可能存在上限。
「規模牆」之辯:AI進步的關鍵不確定性
儘管前景令人興奮,但報告同樣明確指出了其中的關鍵風險——「規模牆」(Scaling Wall)的存在。
這一概念指的是,當投入的算力達到某個閾值后,模型在智能、創造力和解決問題能力上的提升會迅速減少,甚至令人失望。這是目前AI領域最大的不確定性。許多懷疑論者認為,簡單地增加算力可能無法持續帶來智能的飛躍。
然而,報告也提到了一些積極信號。一篇由Meta、弗吉尼亞理工和Cerebras Systems團隊聯合發表的近期研究論文《揭祕LLM預訓練中的合成數據》發現,在使用合成數據進行大規模訓練時,並未觀察到可預見規模內的性能退化模式,即所謂的「模型崩潰」(model collapse)現象。
這一發現令人鼓舞,因為它暗示了在算力大幅增加后,模型能力仍有持續提升的空間,撞上「規模牆」的風險可能低於預期。
此外,報告還列舉了其他關鍵風險,包括AI基礎設施的融資挑戰、歐盟等地的監管壓力、數據中心面臨的電力瓶頸,以及LLM被濫用或武器化的可能性。
全球資產估值如何重塑?
如果AI能力確實實現非線性躍升,資產價值將如何重塑?報告認為投資者應開始評估其對資產估值的多方面衝擊,並指出了四個核心方向:
本文來自微信公眾號「硬AI」,關注更多AI前沿資訊請移步這里