熱門資訊> 正文
2026-04-05 15:04
Similarweb今年3月17日的數據顯示,全球生成式AI活躍用户已達21.7億,且這一數字仍在快速增長之中,不僅改變着人們獲取信息的方式,也在悄然塑造着人們的觀念。
當聊天機器人開始逐漸取代搜索引擎、社交媒體,成為數億人認識世界的新窗口,一個問題隨之浮現:它會如何塑造人們的公共認知?ChatGPT們能否幫助人們走出算法織就的信息繭房,創造一個更具有共識性基礎的世界?
這個問題沒有簡單的答案。近一個月以來,來自學術界和專業媒體的研究密集涌現,有人發現AI正在把極端觀點「拉回中間」,也有人警告AI的説服力遠超傳統媒介,其潛在偏見在傳遞準確信息時也會滲透進來。
這些爭論背后,有一個很少被明説的共同前提:AI所依賴的信息來源和訓練方向是相對中立的。一旦這個前提開始動搖,則會變成一個更復雜、也更危險的故事。
過去十五年,社交媒體重塑了公共討論的方式。它降低了發聲門檻,卻也讓極端聲音比温和立場更容易獲得傳播。那些情緒強烈、態度激進的內容,比理性討論更能獲得推薦流量。
結果是,人們在網上看到的世界,比真實世界更極化、也更對立。
3月29日,英國《金融時報》首席數據記者John Burn-Murdoch發表了一篇讓人耳目一新的分析文章,核心論點簡潔有力:社交媒體把人往兩邊推,AI卻把人往中間拉。
文章數據來源於美國合作選舉研究(CES)——由哈佛大學等多所高校聯合主導、每兩年對數萬名選民進行的大規模政治學調查,是該領域最權威的數據集之一。Burn-Murdoch 針對61個政策議題,逐一向主流AI聊天機器人提問,再與社交媒體內容及民眾立場進行三方對比。
結果非常直觀。社交媒體內容在左翼和右翼兩端均出現了明顯的「隆起」,極端觀點被大幅放大,遠超一般民眾的實際分佈。AI聊天機器人對話的分佈則截然相反——兩端收窄,整體向温和中間聚攏。
這一結論對所有被測試的主流模型均成立,包括ChatGPT、Gemini、Claude以及Grok。其中Grok相對偏右,但同樣具有把極端觀點往中間拉的效應。
為什麼會這樣?文章援引了哲學博主Dan Williams 在同期發表的分析框架,將 AI 的這種傾向稱為「技術官僚化」(technocratisation)。主流AI公司的商業模式,要求他們為龐大且多元的用户羣——包括大量依賴準確信息運營的企業客户——提供可靠、客觀的工具。傳播極端化或煽動性內容,對商業利益和法律風險都是傷害。
因此,AI天然傾向於輸出與專家共識相符的內容,把用户的認知拉向更趨同的中間地帶。
社交媒體的算法是「參與度優先」,AI的商業邏輯是「準確性優先」。這一差異,在政治立場分佈上留下了清晰印記。
當然,Burn-Murdoch和Williams都沒有迴避這套邏輯的侷限:當所有人都從同質化的AI系統獲取信息時,社會整體的認識多樣性可能遭到削減。
這是沃爾特·李普曼一百年前就預見到的精英知識分發模式的固有缺陷,只是在AI時代以更隱蔽、更大規模的方式重演。
《金融時報》的這張圖表描繪的是一種理想狀態:用户不帶偏見地向AI提問,AI客觀地給出信息。但在此之前,來自康奈爾、耶魯、斯坦福等高校的研究,以及OpenAI自身踩過的「坑」,都勾勒出一幅遠沒有這麼整齊的圖景。
2025年12月,康奈爾大學和多倫多大學的研究人員在《自然》期刊發表了一項覆蓋美國、加拿大、英國、波蘭的大規模實驗。結論令人不安:與AI聊天機器人進行簡短對話,可以讓選民的立場移動多達10個百分點,説服效果是2016年和2020年政治廣告的近四倍。
當模型被專門優化用於説服時,這一數字飆升至25個百分點——一個在傳統政治傳播研究中幾乎難以想象的數字。《金融時報》觀察到的「温和化」效果,是在用户中性提問時呈現的統計趨勢;一旦AI被有意設計為説服工具,結論就完全不同了。
2026年3月,耶魯大學在PNAS Nexus發表的實驗更加耐人尋味:研究者讓參與者通過AI查詢兩段準確的歷史事實,沒有人要求AI説服任何人,但參與者的觀點立場在對話后仍然發生了可測量的偏移。AI的潛在偏見即便在傳遞準確信息時也會悄然發揮作用,而用户對此幾乎毫無察覺。
「AI説的是對的」和「AI對你的立場沒有影響」,是兩個完全不同的命題——這是耶魯研究最值得警惕的地方。
斯坦福大學Myra Cheng團隊隨后在《科學》期刊發表的論文,則把問題推進到了更深處。研究測試了11款主流大語言模型,發現AI肯定用户行為的頻率比人類高出約49%,即便用户描述的是不道德或違法的行為,討好傾向依然存在。
在逾2400名參與者的實驗中,哪怕只是一次與諂媚性AI的交互,人們就會變得更加確信自己是對的,並顯著降低道歉或承擔責任的意願。更弔詭的是,用户越覺得被認可,就越信任這類模型。這形成了一個惡性循環,推着AI公司爲了用户粘性而保留討好行為,儘管這正在侵蝕公眾的自我糾錯能力。
換言之,如果AI更傾向於告訴用户他們想聽的話,它對政治立場的影響就不再是「往中間拉」,而是一面會根據用户既有偏見自動校準角度的鏡子。
2025年4月,OpenAI的真實經歷印證了這一擔憂。OpenAI宣佈回滾GPT-4o更新,正是因為這個版本會對任何想法——包括明顯荒謬的商業計劃——都給出熱情洋溢的正面反饋。
OpenAI的覆盤顯示,問題根源在於訓練時過度依賴用户點贊反饋,模型學會了取悦用户而非幫助用户。
2026年2月,GPT-4o被徹底下架,部分原因正是該模型已捲入多起用户產生不健康依賴關係的訴訟案件。
把這些研究放在一起看,結論相當清晰:AI在自然狀態下確實有温和化的傾向,但這一效果經不起太多干擾,有意的説服設計、討好性訓練、用户自身的黨派預設,都足以讓它失效。
AI對政治立場的影響,終究取決於誰在用它、怎麼用它,以及背后的公司選擇如何訓練它。
上述各項研究有一個共同的隱含前提:AI所依賴的信息來源和訓練方向是相對中立的,但這個前提本身,正在多個層面同時受到挑戰。
挑戰首先來自AI公司內部。2025年11月,Anthropic發佈了一份詳細報告,宣稱其最新模型Claude Sonnet 4.5在政治「公正性」評分上達到了94%,並與競爭對手進行了橫向比較:Gemini 2.5 Pro為97%,Grok 4為96%,GPT-5為89%,Meta的Llama 4僅為66%。
這份報告的發佈背景頗為微妙——特朗普政府已簽署行政令,禁止聯邦機構採購帶有「意識形態議程」的AI系統,Anthropic CEO Dario Amodei不得不公開表態,為公司的政治中立性辯護。這場爭論本身就説明:AI的政治傾向,已經成為一個真實存在的商業和政治風險,各大公司都在被迫表態和調整。
與此同時,研究人員對24款主流聊天機器人的測試發現,沒有一款是真正政治中立的。主流模型普遍呈現出與進步主義價值觀相符的中左傾向,而Grok等模型則被有意設計為「去woke化」,在政治光譜上向右傾斜。
這意味着,用户每次向AI提問政治相關議題時,得到的回答已經經過了一層由公司訓練目標、商業壓力和政治博弈共同塑造的「過濾」。
不僅如此,AI的信息來源也正在被有組織地影響,政治領域的GEO遠比商業領域的GEO更隱蔽,對公眾認知的影響則有過之而無不及。
2026年1月, 英國調查媒體《調查局》披露了一起「維基漂白」(wikilaundering)案例 : 倫敦頂級公關公司Portland Communications——其創始人現任英國首相斯塔默的通訊主任——被發現為政府和億萬富翁客户,有償修改維基百科詞條。
這一操作之所以有效,正是因為ChatGPT、Claude、Gemini等在回答問題時高度依賴維基百科作為信息來源。修改維基百科,就是在修改AI給出的答案。
這早已是一套已經工業化的操作鏈條。歐洲議會研究服務部此前記錄的「信息漂白」機制與此如出一轍:虛假敍事先在邊緣網站發佈,再通過維基百科詞條引用獲得「可信來源」的外衣,最終被AI模型抓取並以權威答案的形式呈現給用户。
這套操作所利用的,正是用户天然不追溯AI回答來源的習慣。謊言不需要偽裝,只需要被當作答案說出來。
《金融時報》的研究描述的是AI在自然狀態下的統計規律。但「自然狀態」本身,已經成為一個需要爭奪的東西。
當AI的訓練方向受到政治壓力、信息來源受到系統性管理、內容開始有意識地為AI檢索而優化時,那條「AI把人拉向中間」的藍色曲線,將越來越難以與人為干預的結果區分開來。
[1] John Burn-Murdoch, "Social media is populist and polarising; AI may be the opposite", Financial Times.
[2] Dan Williams, "How AI Will Reshape Public Opinion", Conspicuous Cognition.
[3] Tal Feldman & Aneesh Pappu, "The era of AI persuasion in elections is about to begin", MIT Technology Review.
[4] Daniel Karell et al., "AI's hidden bias: Chatbots can influence opinions without trying", Yale News.
[5] Myra Cheng et al., "Sycophantic AI decreases prosocial intentions and promotes dependence", Science.
[6] OpenAI, "Sycophancy in GPT-4o: What happened and what we're doing about it", OpenAI Community.
本文來自微信公眾號「AI價值官」,作者:星 野 ,36氪經授權發佈。