繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

中外大模型加速開源+免費!文心一言降本大揭祕,GPT-5緊追

2025-02-15 19:35

智東西

作者 徐豫

編輯 漠影

DeepSeek后時代,「開源」和「免費」,力壓「參數量」和「模型架構」之爭,成為大模型圈新的風暴中心。

智東西2月15日報道,不到一個月內,百度、DeepSeek、OpenAI、谷歌、xAI等主流大模型廠商們密集官宣,旗下閉源高端AI模型將轉向開源,而主流AI產品計劃免費向用户開放。這不僅是大模型競賽進入新一輪白熱化階段的信號,也是AI技術走近尋常百姓家的關鍵節點。

百度和OpenAI兩家更是戰況焦灼,前后腳劇透下一代新模型、深度搜索功能、生成式AI工具免費可用,以及開源計劃。

2月14日,百度宣佈將在接下來的幾個月內,陸續推出文心大模型4.5系列,並且新一代文心大模型將自6月30日起開源。這也是百度旗下大模型首次開源。與此同時,有市場消息稱,百度今年還會發布文心大模型的5.0系列

再往前一天,百度官宣,自4月1日起,文心一言將全面免費,用户可以通過PC端和APP端,免費使用最新款的文心繫列模型。同日,OpenAI CEO奧爾特曼在X上發佈長文,官宣計劃在幾周,或者幾個月內,發佈新一代模型GPT-4.5(內部代號「Orion」)和GPT-5系統

奧爾特曼還在文中寫道,其ChatGPT的免費套餐,也將包括對GPT-5的無限制聊天訪問權限。換句話説,用户不僅可以免費使用ChatGPT的搜索功能,后續還可以免費用上OpenAI最先進的模型

本月早些時候,谷歌也宣佈了將開放其最新的Gemini 2.0系列模型。馬斯克則2月14日接受採訪時談道,計劃將在一到兩周內推出新一代AI模型Grok 3,性能或將超越GPT系列,並且很大概率延續開源策略。可以説,上述幾家大模型廠商都卯足了勁,準備在這個節骨眼大干一場,誰也沒有打算讓着誰。

另外,百度和OpenAI均計劃逐步開放深度檢索相關功能

OpenAI方面稱,深度研究功能起初會提供每月2次的免費使用機會、每月10次的Plus用户使用機會,而所有Pro用户均可在移動端和桌面端APP上使用該功能。百度文心一言的深度搜索功能現已上線PC端,從4月1日起即可免費使用,APP端也即將上線。

時至今日,大模型能夠走向免費、開源、開放,背后離不開技術突破所帶來的訓練和推理成本下降

2月11日,百度創始人李彥宏在阿聯酋迪拜出席「世界政府峰會」上時分享道,「在過去,當我們談論摩爾定律時,每18個月,性能水平或價格都會減半。但今天,當我們談論大型語言模型時,可以説每12個月推理成本就降低90%以上。」

OpenAI CEO奧爾特曼近日也在博客上表達了類似觀點。據他觀察,AI價格的下降顯著刺激了AI使用量的增長。奧爾特曼稱,AI使用成本正大幅下降,每年比前一年便宜約9成,這也有助於AI普及更多用户。

用大模型這件事兒越來越便宜,不僅讓各中小型企業本地化部署大模型的價格門檻更低,還能開發出更適用的大模型衍生品;也有助於普羅大眾把用AI產品變得日常化,動手搭建個性化的AI工具、AI產品、AI智能體,最終共同為整個AI生態持續注入活力。

那麼,大模型憑什麼敢免費開放,究竟如何提供高性價比的AI算力,先進模型能力到底強在哪?通過拆解百度多項大模型開發經驗,我們找到了自研芯片、數據中心和AI計算平臺,以及推理技術架構深度優化這4大答案。

一、文心繫列打頭陣,深度搜索功能即將全量上線

時隔大半年,百度文心大模型即將連續刷級。據百度方面最新消息,文心大模型4.5系列將在未來幾個月內陸續推出。另據近期市場消息,文心大模型5.0系列也將在年內發佈,時間可能是今年下半年。

2023年10月,百度發佈了文心大模型4.0;去年4月,文心大模型4.0工具版上線;去年6月,4.0系列中性能較強的文心大模型4.0 Turbo正式推向市場。結合4.0系列的發佈節奏來看,或許百度已用實際行動印證了李彥宏所説的「創新的本質」。在他看來,創新的本質基本遵循「如果你能將成本降低一定數量、一定百分比,那麼這意味着你的生產率提高了相同的百分比」

有知情人士劇透,文心大模型4.5和5.0,將在多模態能力上有明顯提升。OpenAI則選擇將o3推理模型等多種AI技術和能力,集成到即將發佈的GPT-5 AI系統中。

同時,文心大模型的視覺智能能力也是其一大特色。基於此,百度或將代替OpenAI和谷歌,接管國行版iPhone中Apple Intelligence的視覺智能。據外媒2月14日報道,百度將負責承擔「國行版」Apple Intelligence所提供的圖像識別、檢索等功能。

目前,百度自研的iRAG(image-based Retrieval-Augmented Generation,基於圖像的檢索增強生成技術)結合了檢索增強(RAG)技術和視覺智能,可以檢索、比對、參考百度搜索引擎的大量圖片資源,然后通過文本生成質量更高、元素更逼真的AI圖像,減少傳統文生圖技術易出現的「幻覺」現象。

實測表明,具備iRAG能力的文心大模型4.0,所生成的人物形象及其動作都更加貼合文字描述和物理邏輯。此外,文心大模型4.0支持一次生成多張AI圖像。

▲左圖由文心大模型4.0生成,右圖由文心大模型3.5生成(圖源:百度) ▲左圖由文心大模型4.0生成,右圖由文心大模型3.5生成(圖源:百度)

而單從檢索增強方面來看,百度的生成式AI工具文心一言,比OpenAI的AI聊天助手ChatGPT,在聯網檢索準確性、內容描述的細緻程度上,都更勝一籌。

先拋給它們一個有唯一解的問題:「2025年中國的法定假日有哪些?」

文心一言發現了今年是中秋節與國慶節連休,但ChatGPT弄錯了中秋節的日期,並且沒有發現連休假期的特殊情況。

再拋給它們一個開放式的問題:「哪吒2中,在做藕粉的過程中,出現了哪些讓哪吒感覺不適的操作?」

ChatGPT聯網檢索后生成的答案有偏離影片事實的部分,文心一言則更加準確地描述出了影片細節內容。

今年內,文心一言還有望勝任一些更專業化、行業門檻更高的內容。2月13日,百度官宣文心一言網頁版上線了深度搜索功能,App端也即將同步升級。

基於該深度搜索功能,文心一言可以應對民生、創業、經濟分析類等專業諮詢類的問題,內容回覆預期達到專家級水平,在一定程度上突破了過去查詢渠道較為小眾、專業領域解析難度大等AI搜索瓶頸。

除了增強搜索能力,百度方面透露文心一言的思考、規劃和反思能力都進一步提升,從而能夠更「聰明」地使用多種工具解決複雜任務。

例如,遇到一些不能簡單處理的問題,文心一言可以先「閲讀」、「理解」用户上傳的文檔,再搜索、分析相關內容,最后綜合考慮私域資源和公域資源信息,得出結果。

二、「芯」動力撐腰,大幅提升模型訓練效率

當前,大模型及其產品性能增強的同時,還要控制、降低開發和使用成本,以實現向用户開源並免費開放。這背后離不開整體算力架構的提效優化。

首先是算力「油門」,即芯片。

百度自研的AI芯片「崑崙芯」,專注於大模型訓練和推理優化,驅動一系列文心大模型縮短訓練周期,並降低開發成本。

其現已升級至第三代崑崙芯P800。該芯片採用的是XPU架構(eXtensible Processing Unit,可擴展處理單元),這種處理器架構比傳統的CPU(中央處理單元)和GPU(圖形處理單元)靈活度更高,可以根據具體需求和應用場景來擴展和定製,從而減少算力的浪費,並提高計算任務的處理效率。

同時,崑崙芯P800的顯存規格比同類主流GPU高出20%到50%,可以更好地適配MoE(Mixture of Experts,混合專家模型)架構,節省算力消耗,來整體降低開發成本。

該芯片還支持8-bit量化技術,佔用更少的顯存,也能保持較高的推理精度。這意味着千帆DeepSeek一體機單機8卡,也能帶動滿血版DeepSeek等參數量為671B的大模型。

其次是算力「油箱」,即數據中心。

本月,百度智能雲宣佈完成崑崙芯三代萬卡集羣的搭建,並計劃進一步將萬卡規模拓展至三萬卡

這一自研萬卡集羣可形成規模效應,通過多任務並行處理、彈性算力管理等方式減少算力閒置的情況,以提高計算資源利用率,進而降低模型訓練的整體算力成本。

未來,其規模如果按計劃從萬卡擴大至三萬卡,規模效應加劇,百度的雲計算服務整體成本或將進一步降低。

再者是算力「車底座」,即AI計算平臺。

百舸平臺是百度智能雲推出的一個高性能AI計算平臺,主要用於支持大規模深度學習。其通過提升帶寬有效性、減少散熱能耗、優化模型訓練效率等方式,來降低模型訓練整體成本。

據百度方面最新數據,百舸4.0的帶寬有效性已提升至90%以上;訓練主流開源模型的集羣MFU(通常用MFU來表示GPU的有效利用率)提升至58%;模型訓練故障恢復時間從小時級降低到分鍾級,集羣有效訓練率達到98%

三、多平臺創新,拉動模型推理成本打骨折

訓練和推理都是模型開發及其應用的關鍵環節,因此單單降低模型訓練的開銷還不夠,模型推理的成本,也需要通過優化推理技術來進一步控制

截至發稿,開源社區Hugging Face上點贊數排行第一,是國產模型DeepSeek-R1。DeepSeek-R1是基於DeepSeek V3基礎模型訓練的高性能推理模型,專注於提升推理能力。

隨着主流大模型廠商相繼接入、蒸餾DeepSeek-R1和DeepSeek V3模型,並且計劃開源自家先進模型,這一格局或將被改寫。

不過,調用DeepSeek-R1和DeepSeek V3的價格卻有高有低。

目前來看,包括DeepSeek自家平臺在內,調用DeepSeek-R1和DeepSeek V3每百萬Tokens的單價,定價最便宜的是百度智能雲千帆大模型平臺。其R1的調用價格為DeepSeek官方刊例價的半價,V3的調用價格是DeepSeek官方刊例價的3折

總的來説,百度方面主要通過優化以下3大板塊的推理技術,來降低推理成本。

1、百度智能雲千帆大模型平臺針對DeepSeek模型MLA結構(Multi-Level Attention,多級注意力)深度優化,一方面同步調用計算、通信和內存資源進行推理,另一方面使用Prefill/Decode分離式推理架構在推理前先預處理數據,從而使模型滿足低延迟標準的同時,大幅提升了吞吐量,並降低了推理成本。

2、百度智能雲千帆大模型平臺還通過增強系統容錯能力、減少多輪對話等場景中的重複計算、增強安全防護欄來整體降低推理成本。

3、有業內人士分析稱,百度飛槳深度學習框架,以及百度飛槳自研的並行推理、量化推理等大模型推理相關技術,可以遷移應用於文心一言等百度旗下的AI工具,從而降低這些AI工具的推理成本。

結語:國內外大模型再掘AI增量,智能化加速平民化

作為首批免費開放AI模型的大模型廠商,百度與OpenAI等競爭對手一起,拉開大模型新一輪價格戰的序幕。但這一次,「省成本」不僅僅是爲了大模型廠商自身的經營,更多是把重心放在了AI技術推廣上。

而百度在芯片、模型訓練、模型應用方面持續探索,通過技術創新,讓AI逐步走向人人可用、人人用得起、人人用得好的階段。

未來,無論企業或者個人是否從事AI行業,都有機會在日常生活中收穫AI技術、AI工具、AI模型的智能化體驗,繼而作為一份子加入AI浪潮,形成AI硬件開發商、大模型廠商、雲服務商、個人等主體共促AI生態開放發展的局面。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。