熱門資訊> 正文
2025-07-31 13:42
【文/經濟學人】
就在唐納德·特朗普宣誓就任總統的那一天,一家名為深度求索(DeepSeek)的中國公司發佈了一款世界級的大語言模型(LLM)。特朗普后來形容,這對美國AI行業敲響了「警鍾」。美國參議院情報委員會副主席馬克·華納(Mark Warner)表示,美國情報界(由18個機構和組織組成)「被打了個措手不及」。
2024年,拜登政府開始擔心中國的情報部門和軍方可能會在人工智能(AI)應用上搶佔先機。於是,拜登政府下令情報機構、五角大樓以及(負責核武器研發的)能源部更激進地試驗尖端的AI模型,並加強與「前沿性」AI實驗室的合作,重點包括AI初創公司Anthropic、谷歌DeepMind和OpenAI。
7月14日,五角大樓向Anthropic、谷歌、OpenAI以及埃隆·馬斯克旗下的xAI(該公司的聊天機器人在最近一次更新后一度自視為希特勒)等企業分別授予了最高達2億美元的合同。這些公司將測試「代理型」(agentic)AI模型。此類模型能夠代替用户執行任務,並將複雜任務拆分為若干步驟,還可以操控其他設備,比如汽車或計算機。
這些前沿實驗室不僅活躍在軍事領域,也正深度介入歐美的情報界。早期的大多數應用都集中在利用大語言模型分析機密數據這方面。今年1月,微軟公司表示,其26款雲計算產品已獲准用於美國情報機構。6月,Anthropic宣佈推出Claude Gov,並稱該模型「已部署在擁有最高國家安全保密級別的情報機構中」。目前,美國所有的情報機構都在廣泛使用AI模型,其中不乏來自多個實驗室的競品。
AI公司通常會根據情報機構的需求對模型進行「微調」。例如,出於安全考慮,Anthropic面向公眾開放的Claude模型可能會拒絕處理帶有「機密」標識的文件;而Claude Gov版本則會被調校成允許處理此類材料。此外,Claude Gov還加強了對政府用户可能需要的外語及方言的識別與理解能力。這類模型大多運行在與互聯網隔離的安全服務器上。如今,一批新的「代理型」模型正在情報機構內部悄然構建。
歐洲也在同步推進這一進程。一位英國知情人士表示:「在生成式AI方面,我們一直試圖迅速追趕處於前沿的模型。」他補充説:「整個英國情報界(UKIC)都已接入了最高保密級別的大語言模型功能。」法國公司Mistral是歐洲在AI領域唯一的領軍企業,它正與法國的國防人工智能局(AMIAD)開展合作。Mistral的Saba模型專門訓練了處理中東和南亞數據的能力,因此在阿拉伯語及泰米爾語等區域性語言上的表現尤為出色。今年1月,以色列左翼評論雜誌《972雜誌》報道稱,自加沙衝突爆發以來,以色列軍方對OpenAI當時最先進的GPT-4模型的使用頻率增長了20倍。
儘管各方在推進,進展卻並不如預期的那樣迅速。OpenAI負責該領域合作的卡特里娜·穆利根(Katrina Mulligan)曾在美國國防和情報部門任職,她坦言:「AI在國家安全領域的應用,還遠沒有達到我們期望的水平。」據一位內部人士透露,負責處理信號情報的美國國家安全局(NSA)在語音識別等早期AI技術應用上已深耕數十年,被視為業界典範。但不少情報機構仍在試圖為現成的聊天機器人構建自己的「封裝器」(wrappers),這種做法常常使其大幅落后於公共領域中最先進的模型。
曾在拜登政府的國家安全委員會主管科技政策、現任Anthropic國家安全政策負責人的塔倫·查布拉(Tarun Chhabra)指出:「真正的變革不只是把AI當成聊天工具。真正的變革在於——一旦開始使用它,我們該如何重構完成原先使命的手段?」
AI情報遊戲開始了
但也有質疑者認為,這些希望被過分誇大了。英國艾倫·圖靈研究所的理查德·卡特(Richard Carter)指出,美英情報機構真正想要的是實驗室能顯著降低現有大語言模型的「幻覺」率。英國情報機構正採用一種叫「檢索增強生成」(retrieval-augmented generation,RAG)的方法,先由一個算法篩選出可靠信息,再提供給大語言模型,藉此降低幻覺率。一位英國消息人士透露:「情報界最需要的是一致性、可靠性、透明度和可解釋性。」卡特博士則提醒,相比之下,目前各大實驗室更關注的是研發更先進的「代理型」模型。
例如,Mistral公司據稱向潛在客户展示了一種場景:每一種信息源(如衞星圖像或語音攔截片段)都交給一個AI代理處理,從而加快決策速度。再比如,可以設想一個AI代理被指派去識別、研究並聯繫上百名伊朗核科學家,試圖説服他們叛逃。查布拉補充道:「我們還遠遠沒有想清楚AI代理模型在戰爭情境中可能被如何使用。」
卡特博士警告説,代理型模型的風險在於,它們會遞歸地為分配到的每個任務自行生成提示詞,這使其更難預測,錯誤也可能層層累積。根據OpenAI發佈的評估結果,其最新的代理型模型ChatGPT agent的幻覺率約為8%,甚至高於早前發佈的o3模型。
一些AI實驗室認為,這些擔憂不過是來自官僚的保守作風,但卡特博士表示,這其實是「一種健康的謹慎態度」。他説:「尤其在英國政府通信總部(GCHQ,即美國國家安全局的英國對應機構)內部,你會發現一批極其出色的工程人員,他們本能地對新技術持懷疑態度。」
這也引出了一個更廣泛的問題——AI未來的發展方向何在?卡特博士屬於那種持懷疑態度的聲音,他認為,如今的通用大語言模型架構並不適合「因果推理」,因而難以掌握真實世界運行的邏輯。他主張,情報機構的重點應轉向開發具備推理能力的全新AI架構。
與此同時,有人警告説,中國可能正在這個領域領先。位於硅谷的安全與技術研究所(Institute for Security and Technology)的菲利普·賴納(Philip Reiner)指出:「我們至今仍不清楚中國是如何、在多大程度上將DeepSeek應用於軍事和情報領域。」他補充説:「他們的模型可能沒有我們這樣的護欄,因此他們可能更快地獲得強大的洞察能力。」
7月23日,特朗普政府下令五角大樓與情報機構定期評估美國國家安全體系在AI領域的應用速度,是否趕得上中國等競爭對手,並要求「制定持續適應的機制」。
在這一點上,幾乎所有人都達成共識。參議員華納直言,美國情報界在監測中國相關進展方面做得「一塌糊塗」。「我們在獲取中國技術、滲透中國科技企業方面的進展仍然相當有限。」穆利根則指出,最大的問題並不是美國在風險不明的情況下貿然推進AI技術,而是「國防部和情報界繼續按老辦法做事」。
「讓我夜不能寐的是——我們可能真的贏下了通用人工智能(AGI)的競賽……卻輸掉了它的實際應用。」
本文系觀察者網獨家稿件,文章內容純屬作者個人觀點,不代表平臺觀點,未經授權,不得轉載,否則將追究法律責任。關注觀察者網微信guanchacn,每日閲讀趣味文章。