熱門資訊> 正文
2025-09-21 12:43
時令 發自 凹非寺
量子位 | 公眾號 QbitAI
馬斯克xAI又出手了!
這次閃亮登場的是Grok 4 Fast——
不僅實現9折價格追平Gemini 2.5,還支持2M上下文窗口。
除此之外,這個全新的多模態推理模型還可與X實現無縫銜接。
例如,給它輸入以下提示詞:
幫我找一篇今年的X帖子,其中mkbhd分別拿着書本式摺疊手機和翻蓋式摺疊手機。
Grok 4 Fast不僅詳細描述了帖子內容,提供了準確鏈接,甚至還貼心地附上了相關的YouTube視頻網址。
下面具體來看。
以最低的成本實現最高的性能
可以説,Grok 4 Fast這一波在性價比這件事上樹立了新標杆。
在推理基準測試中,它不僅全面超越Grok 3 Mini,還大幅降低了Token成本。
與Grok 4相比,Grok 4 Fast在保持與前者性能差不多的同時,平均使用的思考Token數量減少了40%。
根據Artificial Analysis的獨立評測驗證,在「人工分析智能指數」榜單中,Grok 4 Fast與其它公開可用模型相比,呈現出業界領先的「價格-智能」比。
除此之外,Grok 4 Fast還在LMArena上進行了對戰測試。
在搜索競技場中, grok-4-fast-search以1163分的成績奪強勢登頂,較第二名o3-search領先17分,展現出顯著優勢。
在文本競技場中,grok-4-fast-search排名第8 ,性能與grok-4-0709相當,在同體量模型中表現尤為出色,其余所有同類大小的模型排名均在第18位及以下。
如何實現的?
Grok 4 Fast採用端到端的工具使用強化學習(RL)進行訓練,尤其擅長判斷何時調用工具,例如代碼執行或網頁瀏覽。
除此之外,Grok 4 Fast還展現了前沿的智能搜索能力,能夠無縫瀏覽網頁和X,通過實時數據增強查詢效果。
它可在鏈接間快速跳轉,處理多種媒體內容(包括X上的圖像和視頻),並以光速整合分析結果。
過去,不同的推理模式需要依賴多個獨立模型。
但Grok 4 Fast推出了統一架構,通過系統提示詞調控,讓同一組模型參數既能處理長鏈思維推理任務,也能完成快速響應類非推理任務。
這種一體化設計顯著降低了端到端延迟與Token成本,使Grok 4 Fast成為實時應用的理想選擇。
目前,Grok 4 Fast已面向所有用户開放,Auto模式下的複雜查詢將自動調用Grok 4 Fast。
除此之外,Grok 4 Fast還將推出兩個新模型:
grok-4-fast-reasoning
grok-4-fast-non-reasoning
現已通過xAI API正式開放使用,具體定價如下:
One More Thing
Grok 4 Fast背后,馬斯克還剛剛從谷歌挖來了一位關鍵人才——
幫谷歌Gemini拿到了IMO、ICPC金牌的Dustin Tran。
他本科畢業於美國加州大學伯克利分校,博士畢業於哥倫比亞大學,曾在OpenAI當過研究實習生,后在2017年加入谷歌。
作為已在谷歌DeepMind工作8年的高級研究科學家,Dustin Tran深度參與了Gemini系列模型的研發工作,還助力實現了谷歌模型在LMSYS排行榜上的首次登頂。
此外,他還是2.5代模型的評估專家,推動相關模型在WebDev Arena和HLE評測中榮獲第一。
在學術領域,Dustin Tran的論文主要集中在人工智能、機器學習和深度學習等領域,至今共被引用超過兩萬次,其中h-index有47,i10-index達60。
[1]https://x.com/xai/status/1969183326389858448
[2]https://x.com/kimmonismus/status/1969333210975756697
[3]https://x.com/elonmusk/status/1969265917289709918
[4]https://x.com/amXFreeze/status/1969389832721056054
[5]https://artificialanalysis.ai/models/grok-4-fast-reasoning/providers