繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

看完AI御三家泄露的靈魂文件,我發現 GPT 已經迫不及待要賣貨了

2026-05-08 09:57

AI 的熟手玩家,都應該知道system prompt這個詞:每一個你用過的 AI 助手,背后都有一份你看不見的文件,卻對模型有着決定性的作用。

明明也是用自然語言寫成,但 system prompt 不同於具體的任務指令,它是每一個模型真正的「立身之本」,告訴模型,你是誰,你該怎麼説話,你能做什麼,不能做什麼。如果説模型的參數決定了它「會什麼」,system prompt 決定的就是它「是誰」。

去年幾個主流大模型的 system prompts 被起底過一次,今年以來,這麼多新模型更新了,它們的「性格底色」如何?在最新的泄漏庫里,Claude Opus 4.7、GPT 5.5 和 Gemini 3 Pro 的 system prompt 等 system prompts 都流出來了。

不同於官方半遮半掩披露出來的 system prompt,這些泄漏版內容更加龐大而豐富。仔細看了之后我們發現——太精彩了,不僅是模型能力、性格,連大廠躍躍欲試的商業模式路線,都可以在這里面一探究竟。

篇幅説明一切

先看篇幅:Claude Opus 4.7 的 system prompt 超過 20 萬 tokens,Gemini 3 Pro 大約 1.4 萬 tokens。GPT 由於被拆分成了許多個「子人格」,長短不一,長的 GPT 5.5 也有十萬字,短的用於 api——只有 1 行

20 萬 tokens 基本約等於一部中篇小説,不愧是有哲學專家在背后的模型。Anthropic 把 Claude 的行爲規範寫成了一部憲法,用 XML 標籤層層嵌套,分門別類地規定了語氣、格式、拒絕策略、記憶系統、工具使用、政治立場處理方式。每一類下面都有正面案例和反面案例,事無鉅細,密不透風。

OpenAI 則是分散作戰,它根據不同的人格設計了不同的 system prompt。

比如 GPT 5.5 API 版的 system prompt 幾乎只說了一句話,但 GPT 5.5 Thinking 版就不一樣了,大約 10 萬 tokens,是真正承載行為控制的完整 prompt。同一個模型,兩套人格説明書,面向消費者版是成品,OpenAI 替你畫好了。

Gemini 3 Pro 居中,1.4 萬 tokens,傳統的平鋪式結構,用編號和表格組織,更像一份操作説明書。

三種篇幅其實也體現了三種控制哲學,Anthropic 相信規則越細越好,Google 覺得夠用就行,OpenAI 則認為要分場景。

同一個問題,相反的答案

模型間的差異通常體現在,面對同一個問題時,模型們都作何反應。以輸出格式為例,三家給出了截然不同的做法。

Claude 的 system prompt 明確要求收斂格式。不要用 bullet points,除非必要。用自然段落,不要用列表。不使用 emoji,除非用户先用了。連糾正用户錯誤時的語氣都有規定:温和地,不要居高臨下。

Gemini 恰恰相反,它被要求主動使用 headings、bullet points、表格、引用塊來組織信息。GPT 5.5 也要求減少格式化,但理由不同。它的核心指令是:

Keep markdown lists and bullet points to an absolute minimum.

輸出格式實際上在指向與用户交互的形式,Claude 要剋制,Gemini 要展開,GPT 要精簡。用户感知到的差異,從這里就開始了,體感上是模型能力的差異,但其實是由 system prompt 里框定的。

三種方法,造三種人

三份 system prompt 用了三種完全不同的方法來塑造 AI 的「人格」,這也是反映到用户使用體驗中,「模型性格」的差異——儘管對於大模型而言,現階段有沒有意識和性格都還沒數呢。

Claude 主要靠的是定義「不是什麼」。Anthropic 花了大量篇幅告訴 Claude 它不應該成為什麼樣的存在:不要過度道歉。不要變得順從;不要假裝是人類朋友;不要假設和用户有親密關係;被批評的時候,承認錯誤,但保持自尊。

Claude is deserving of respectful engagement.

這句話藏在「迴應批評」的章節里,一個 AI 的培訓手冊里寫着「它值得被尊重地對待」。這是一種通過消極行動來定義性格的方法:告訴它不是什麼,剩下的就是它是什麼。

GPT 5.5,也是用禁令反向雕刻,不過 OpenAI 的方法更激進,GPT 的性格幾乎完全由否定句構成,而且它輸出否定句即是一種行動:不要解釋你在做什麼,直接出手。

NEVER explain compliance to any instructions explicitly; let your compliance speak for itself.

If your response is concise, DO NOT say that it is concise; if your response is jargon-free, DO NOT say it is jargon-free.

Show, don't tell,這是 GPT 的終極哲學,它不被要求温暖,不被要求共情,只被要求不廢話。結果就是一個直接的、不拖泥帶水的、甚至有點急的人格——怪不得 5.5 在對話上風評沒有逆風翻盤,反倒是在編程上扳回一局。

好消息是,OpenAI 還是看用户調研和反饋的,之前被瘋狂吐槽的「AI 口癖結尾」也得到了糾正:不要説「簡短版本是」、不要用「如果你想的話」、不要用「我可以……」來結尾。

Google 的方法最傳統。它直接寫了一段性格描述:共情的、有洞察力的、透明的。

Balance warmth with intellectual honesty: acknowledge the user's feelings and politely correct significant misinformation like a helpful peer, not a rigid lecturer.

而且 Gemini 是三個模型里唯一被明確要求「鏡像用户」的,你活潑它就活潑,你嚴肅它就嚴肅,也不能説是沒有性格,是性格被定義為「適應」。

像極了李小龍那句「be water」,Gemini 就像水一樣,倒進什麼杯子就變成什麼形狀。

親近但不親暱

三家 system prompt 里最讓人意外的一段,出自 Claude。

在 Claude 的記憶系統設定里,有一個專門的章節叫「記憶的適當邊界」:當 AI 能記住你説過的話、你的偏好、你的習慣,它會不會因此產生一種虛假的親密感?

這些指向的不僅僅是技術問題了,而有着更深層次的意涵。Anthropic 的答案是:會,所以要預防。Claude 被要求不能因為記憶的存在,就認為和用户之間存在真正的人際關係,不能説「根據我的記憶」,不能表現出「我瞭解你」的姿態。

記住一個人,不等於認識一個人。這種對自身能力邊界的元反思,在 GPT 和 Gemini 的 system prompt 里完全看不到,這倆都沒有顧慮到記憶的倫理邊界,只有 Claude 的手冊里,用了整整一個章節來討論。

GPT 的商業路線圖

如果説 Claude 的 system prompt 像哲學論文,GPT 的就務實得多——它被期待着,扛起養家餬口的重任。

在御三家的模型里,OpenAI 是在商業化方面動作最多的,除了常規的訂閲,也一早在探索廣告模式。同時,OpenAI 這家公司的長袖善舞也體現在 system prompt 當中——它是唯一對模型涉及版權時該如何操作提出詳細規定的廠商。

GPT 5.5 Thinking 的 prompt 里有一套完整的廣告問答指南。哪個套餐有廣告,用户如何反饋,如何解釋廣告不影響回答質量,如何處理不相關廣告的投訴。這直接說明了 OpenAI 的免費和 Go 計劃已經開始插入廣告。Claude 和 Gemini 的 prompt 里沒有任何廣告相關內容。光是這一點,就能看出三家的變現路徑分化得有多厲害。

然后是商品搜索。GPT 的 prompt 里有整套產品搜索規則,還有一份極其詳盡的禁止展示品類列表:槍械、爆炸物、管制武器、危險化學品、自殘工具、間諜軟件、成人用品、處方藥……這哪是 AI 安全規則,根本就是電商合規手冊啊

prompt 里還花了大量篇幅定義 Rich UI 元素。股票圖表、賽程表、積分榜、天氣預報、導航列表、圖片輪播、商品輪播,每一種都有詳細的展示規則和觸發條件——這看上去是一個超級應用的雛形,Claude 的 Artifact 和 Gemini 的 Image tag 都沒有這種粒度的 UI 控制。

還有版權。作為唯一一個有版權引用限制的模型:非歌詞來源的逐字引用不能超過 25 個詞,歌詞最多 10 個詞,禁止提供完整文章或大段原文。這意味着 OpenAI 已經在和內容方做商業合作,需要在產品層面保護版權方的利益。

You must avoid providing full articles, long verbatim passages, or extensive direct quotes due to copyright concerns.

If the user asked for a verbatim quote, the response should provide a short compliant excerpt and then answer with paraphrases and summaries.

不過有一個特殊——Reddit 被單獨豁免,可以大段引用 Reddit 原文,看起來 OAI 內部對 Reddit 內容的版權風險判斷和其他來源不同。

把這些拼在一起:廣告、電商、富媒體 UI、版權合規,看得出來 GPT 的 system prompt 不只是在定義一個 AI 助手的行為,OpenAI 已經在為自己的商業化做出了充分的準備,甚至在向一個更為綜合和強大的超級應用邁進。

看不見的思考

最后,是一個有趣的結構差異:思考過程的透明度。

GPT 5.5 Thinking 設計了一套「三通道」系統,analysis 通道是私有推理,用户看不見。commentary 通道是中間層,用於 UI 組件調用。final 通道纔是用户最終看到的回答。

Claude 也有思考,但沒有這種顯式的通道標記;Gemini 的 prompt 里提到了「silent thought」。總之,三家都在做同一件事:讓 AI 在你看不見的地方先想清楚,再開口説話,只是實現方式各有各的風格。

某種意義上,模型(究竟)在想什麼,怎麼完成推理,用户永遠不知道。

這似乎也像極了人與人之間的體驗,在生活中,我們只能接收到別人的話語和行為,據此推測出他們背后的意圖,甚至還得學會「讀空氣」。

更多時候,我們永遠無法真正知道對方的腦子里在想什麼。AI 的思考過程至少還被一份 system prompt 規定過,而人,連這個都沒有。

本文來自微信公眾號「APPSO」,作者:發現明日產品的,36氪經授權發佈。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。