繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

OpenAI員工爆料:已搶先體驗GPT-5,7月上線,疑似完全多模態

2025-06-27 17:12

【導讀】GPT-5,已經被OpenAI員工搶先用上了?就在今天,奧特曼在X上關注了一個神祕人,引起全網猜測。不止兩人爆料,自己可能提前體驗了GPT-5,甚至也有網友疑似被灰度測試到了。今夏推出的GPT-5,已經掀起全網瘋狂!

就在今天,關於GPT-5的討論再度火了,X上的神祕爆料滿天飛。

起因是這樣的,Sam Altman在X上關注了了一個叫Yacine的人。

這個人説,自己剛剛試用了一個AI公司的大模型,體驗非常震撼。他敢打賭,沒有任何人能預料到前方即將來臨什麼樣的風暴。

而另一位「Aidan」,也在這個帖子下面發言説,自己有同樣的經歷。

很多人猜測,他們測試的就是GPT-5。

原因在於,Aidan就是OpenAI的員工,而Yacine剛剛被xAI解僱,卻忽然被奧特曼關注了,兩人同時這樣説,絕對不是巧合。

有很大可能,他們已經提前獲得了GPT-5的訪問權限。

甚至,他們看到的東西一定非常驚人,這可能就是互聯網崩潰的前一刻。

另外還有知情人表示,Yacine一直在考慮創辦一家初創公司,現在Altman關注了他,或許是打算挖他到OpenAI?

總之,如今全網再次陷入討論GPT-5的熱潮。

GPT-5,已開始灰度測試?

其實不怪網友多心,因為有越來越多的人,曬出了自己似乎被灰度測試GPT-5的經歷。

比如這位網友,發現自己在使用OpenAI的模型時,被灰度到了一個全新的AI。

在沒有提示的情況下,它就可以連續思考3分鍾,同時還進行了大量搜索。

同樣也是在26號,另一位網友發現,如果選擇的模型是4o,ChatGPT會開始思考。這就讓人懷疑,OpenAI是不是正在悄悄過渡到GPT-5。

GPT-5 今年夏天發佈

此前在OpenAI播客中,奧特曼對於GPT-5的發佈時間已經比較確定了——「可能是今年夏天的某個時候」。

而在一周前,奧特曼也出現在了YC在舊金山舉辦的AI創業學校活動中。

在採訪中他這樣透露:GPT-5會邁向完全多模態!

具體來説,預計今年夏天推出的GPT-5,是一個多模態模型,支持語音、圖像、代碼和視頻等多種輸入方式。

GPT-5不會完全實現OpenAI對未來模型的終極願景,但將是過程中的重要一步。

而GPT-5系列模型的最終願景,就是一個完全多模態的集成模型。

它將具備深度推理能力,能進行深入研究,生成實時視頻,以及編寫大量代碼,即時為用户創建全新的應用程序,甚至渲染提供用户交互的實時視頻。

當這一切實現時,將帶來一種全新的計算機界面——幾乎「消失」,變得無感。

再早些時候,在今年2月,奧特曼還曾在X上發文表示,OpenAI的一大目標,就是通過創建能使用所有工具、知道何時長時間思考或不思考的系統,來統一o系列和GPT系列模型,使其勝任廣泛任務。

GPT-5模型將在ChatGPT和API中發佈,整合語音、canvas、搜索、Deep Research等功能。

對於GPT-5,網友們也有諸多預測,有很多人覺得,它將成為首個真正的混合模型,可以在響應過程中在推理和非推理之間動態切換。

總結來説,它的關鍵特點是多模態、100萬token的上下文、推理+記憶、更少的幻覺,以及o系列和GPT模型的融合

可以説,它就是智能體的未來。

還有人預測,GPT-5的進步主要集中在以下幾方面。

- 視頻模態更「原生」,輸入更自然;

- 智能體性能至少提升了50%,歸功於  強化學習  的深度使用;

- 擁有更強的理解能力與直覺,特別是在任務鏈式執行或將多個已學行為組成更復雜任務的能力上;

- 可能出現層級結構(Hierarchy);

- 不只有「選擇合適模型」這種小把戲,而是有VLM-VLM這樣的架構,用小而快的VLM代替大型VLM,以提高通用性、速度和響應能力。

不過,倒是也有OpenAI內部員工自曝説,其實內部最多也就比公開可用的模型領先兩個月,所以GPT-5不會有巨大的飛躍,只是略有提升而已,不同的是會與許多工具集成。

而就在一個月前,也有GPT-4.1的核心研究員Michelle Pokrass揭祕了GPT-5進展。

她透露説,構建GPT-5的挑戰就在於,在推理和聊天之間找到適當的平衡。

她表示,「o3會認真思考,但並不適合進行隨意聊天。GPT-4.1通過犧牲一些閒聊質量來提升編碼能力」。

「現在,目標是訓練一個知道何時認真思考、何時交談的模型」。

同時,她還首次對外介紹了更多關於GPT-4.1背后開發過程,以及RFT在產品中發揮的關鍵作用。比如,在提升模型性能方面,GPT 4.1聚焦長上下文和指令跟隨。

另外,微調技術在GPT 4.1扮演着重要角色,RFT(強化微調)的出現,為模型能力拓展帶來新的可能。與傳統的SFT相比,RFT在特定領域展現出了強大的優勢。

奧特曼對核心團隊採訪:預訓練GPT-4.5

在4月份,Sam Altman對團隊核心技術的採訪,也曾交代了一些關於GPT-4.5預訓練的「知識」。

在採訪中,部分回答了為什麼「預訓練即壓縮」能通向通用智能?

indigo發帖表示:智慧的核心在於學習者通過壓縮與預測,逐步捕捉到世界本身的結構性並內化為知識。

1. 所羅門諾夫啓發

訪談中提到一個概念:Solomonoff Induction(所羅門諾夫歸納):

在所有可能描述(或解釋)數據的「程序」中,越簡單的程序,先驗概率越大。還能通過貝葉斯的方式,不斷更新對數據的解釋。

在語言模型中,每成功多預測一個字或詞,就意味着它找到了訓練數據里的某種內在結構。

2. 更多「正確壓縮」意味着更深層的理解

訪談里也多次強調:在多領域、多種上下文的數據中,模型反覆預測(即查找「最優壓縮」),就會逐漸學習到跨領域的抽象概念與關聯。

這也就是大家常説的「涌現」或「通用智能」

3. 預訓練與后續「微調/推理」策略的互補

預訓練+定向的監督微調(或強化學習),則能讓模型在某些推理、邏輯或任務場景下更加精準。

這兩者結合,形成了GPT系列模型強大的通用能力。

Mark Chen:AGI不僅是ChatGPT

無論如何,GPT-5的發佈,必將給AI圈再次帶來一場風暴。

顯然,OpenAI的設想十分有野心。

在此前的一篇採訪中,OpenAI首席華人研究科學家Mark Chen,就談到了OpenAI通往AGI之路。

在公司的七年中,他領導了多項里程碑式的項目——o1系推理模型、文本到圖像模型Dall-E,以及融入視覺感知的GPT-4。

在談及AGI之時,Mark Chen表示,「我們採用非常廣泛的定義,它不僅是ChatGPT,還包括了其他東西」。

一直以來,OpenAI將AGI視為AI的聖盃,並制定了五級框架來實現這一目標。

而現在,他們已經到達了第三級,智能體AI(Agentic AI)——能自主執行復雜任務和規劃。

Mark Chen介紹稱,OpenAI近期推出的兩款AI智能體產品,Deep Research和Operator尚處於早期階段。

Operator在未來,速度可以更快,軌跡可以更長,這些產品代表了OpenAI對智能體AI的雄心。

從這些內容中,我們或許也能隱約窺見GPT-5的端倪。

Ilya和Murati都在干啥

話說回來,最近OpenAI出走的兩大高管Ilya和Murati也分別有了動靜。

比如有媒體剛剛曝出,到處瘋狂邀人的小扎,曾給Ilya發出一份價值320億美元的「令人心動的offer」。

不過,Ilya看都不看一眼,大義凜然地拒絕了!

如此決絕地拒絕鉅額收購要約,説明Ilya已經堅定決心,要獨立推動AI的邊界。顯然,他正在追求比薪水更重要的東西。

相信SSI的首個模型/產品發佈的時候,全世界都會為之震撼。

如今,成立僅一年的SSI已經成為AI領域中最受矚目,也是最神祕的名字之一。

沒有公開產品,沒有演示,只有20多名員工,但在今年4月已經以320億估值融資了20億美元。

關於SSI我們僅能知道的線索是,它的使命是開發一個安全、對齊的超級智能AI系統,跟OpenAI日益商業化的方向形成了鮮明對比。

而就在幾天前,前OpenAI CTO Murati創建的的Thinking Machines Lab(同樣並無產品估值近百億),被曝使命是「商業領域的RL」。

具體來説,公司將為企業提供定製化AI服務,重點是強化學習,專門針對收入或利潤等關鍵績效指標進行訓練。

而且TML並非從零開始開發所有功能,而是依賴開源模型,將模型層進行整合,並使用谷歌雲和英偉達服務器。除了B2B產品外,TML還計劃推出一款消費產品。

這些從OpenAI出走的人才「散是滿天星」,都在以不同方式向AGI前進。

AGI之日,人類之末日?

而就在最近,在美國國會的聽證會上,Anthropic聯創Jack Clark表示:「未來18個月內,將會出現極其強大的AI系統。」

Jack Clark:Anthropic聯合創始人及OpenAI前政策主管

他認為,所謂「強人工智能」可能比許多人想象的要早。

Clark表示,美國具備領先開發這種技術的條件,但前提是妥善應對隨之而來的安全風險:

Anthropic認為,未來18個月內將會出現極其強大的AI系統。到2026年底,我們預計真正具有變革性的技術將會問世。 

…… 

我們需要建立聯邦立法框架,為我們指明清晰連貫的前進路徑。 

……  

如果沒有聯邦層面的統一框架,我擔心會形成監管真空  ……  

因此,我們必須通過聯邦框架找到前進的道路。

在這次聽證會上,多位專家預測了AI時間表和未來風險。

Clark介紹了Anthropic進行的AI實驗。

在模擬場景中,他們給Claude模型設置了極端的「死里逃生」情境——

AI模型被告知即將被一個新AI取代,同時它掌握了執行替換決策者的不利私密信息。在某些測試中,Claude試圖以「泄露隱私」為威脅手段,來防止自己被關閉。

雖然這是實驗設置中的極端情境,這表明強AI在面對「生存威脅」時,可能會出現複雜甚至不可預料的行為,預示着未來可能面臨的重大風險。

最后,還可能發生一種極端情形:即AI系統在未來可能擁有「自我延續」的能力。也就是説,它們可以自己進行研究和開發,生成下一代更強大的AI系統。

這意味着,人類可能無法控制這些系統的演進方向。一旦進入這個階段,AI就不再是人類工具,而可能成為脱離控制的獨立實體

去年,「AI教父」、諾貝爾物理獎得主、圖靈獎得主Hinton,就強調過AI導致人類滅絕的風險。

這不是國與國之間的競爭,而是人類與AI的競爭,是人類與時間的賽跑:

在超級智能出現之前,能否提前建立起控制機制和安全防線。

因此,Clark主張:政府應設立專門機構來進行高風險AI的評估,比如美國國家標準與技術研究院(NIST)下屬的「人工智能標準與創新中心」。

他強調,最理想的時間是在2026年之前,在強AI爆發前就準備好這些標準。

人工智能政策網絡(AI Policy Network)的政府事務總裁Mark Beall也參加了聽證會。

他建議美國儘快採取「三P戰略」:Protect(保護)、Promote(推廣)和Prepare(準備)。

其中,Prepare(準備)就是建立測試機制,預測未來AI系統可能產生的風險,特別是失控和被武器化的風險。

他還建議成立「機密測試與評估項目」,專門用於評估AI系統在「失控」和「武器化」方面的隱患,提供決策依據。

參考資料: 

https://x.com/vitrupo/status/1938138544360530079 

https://x.com/indigo11/status/1910908999634952626 

本文來自微信公眾號「新智元」,編輯:Aeneas KingHZ ,36氪經授權發佈。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。