繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

美國斯坦福教授承認:DeepSeek的成功暴露了美國科技界的脆弱性

2025-02-14 18:15

在過去幾周里,美國科技界對 DeepSeek 的討論異常熱烈,焦點集中在芯片供應和技術壁壘上。人們紛紛猜測,DeepSeek 到底囤積了多少芯片,又通過哪些手段繞過了美國的出口管制?這些討論不僅反映了美國對自身技術領先地位的擔憂,也揭示了其長期以來依賴封閉技術和出口控制的戰略侷限性。

美國斯坦福大學以人為本人工智能研究所(HAI)的多個教員們在一起探討發表了DeepSeek 模型的技術進步,還深入分析了其對全球學術界、工業界和社會更廣泛的影響。

討論的核心在於DeepSeek如何挑戰了關於實現AI重大進展所需的資金和計算資源的傳統觀念。DeepSeek展示的聰明工程和算法創新表明,即使是資源較少的組織也能在有意義的項目上競爭。這種巧妙的設計,加上開源權重和技術細節論文,營造了一個數十年來推動技術進步的開放創新環境。

DeepSeek重新點燃了關於開源、法律責任、地緣政治力量轉移、隱私問題等方面的討論。在這組觀點中,斯坦福HAI的高級研究員提供了一個多學科視角,探討DeepSeek對於人工智能領域及整個社會的意義。值得注意的是,多位教授指出,美國長期以來依賴封閉技術和出口控制的戰略正在面臨前所未有的挑戰。DeepSeek的成功不僅展示了中國公司在技術創新方面的實力,也揭示了美國科技界的脆弱性和焦慮感。

Russ Altman等多位教授從不同角度探討了DeepSeek帶來的機遇與挑戰,包括開源共享理念的重要性、算法創新的價值、以及如何平衡數據獲取中的版權和其他知識產權問題。此外,Michele Elam教授特別指出DeepSeek在隱私保護、數據來源和版權方面的模糊性對藝術領域的深遠影響,並呼籲關注這一技術對我們認知現實世界方式的塑造作用。這些討論揭示了技術進步與實際社會影響之間存在的脱節,這是該領域目前最緊迫的挑戰之一。

Russ Altman 的評論

Russ Altman 是 Kenneth Fong 教授、生物工程教授、遺傳學教授、醫學教授、生物醫學數據科學教授,同時也是斯坦福 HAI 的高級研究員和計算機科學教授(兼任)

首先,對開源的承諾(Meta和DeepSeek都採納)似乎超越了地緣政治界限——DeepSeek和Llama(來自Meta)為學者們提供了一個從獨立角度檢查、評估、改進現有方法的機會。「閉源」運動在證明其合理性方面面臨一些挑戰。當然,仍然存在合理的擔憂(例如,不良行為者使用開源模型做壞事),但這些擔憂最好通過開放訪問這些行為者使用的工具來應對,這樣學術界、工業界和政府可以合作創新,減輕風險。

其次,聰明的工程設計和算法創新能夠降低嚴肅AI系統的資本要求,這意味着資金較少的學術努力(以及其他領域)可以在某些系統構建中競爭並作出貢獻。許多人認為我們需要等到下一代廉價AI硬件才能實現AI民主化,這可能仍然是正確的。但在那之前,我們已經意外地發現軟件創新也可以成為效率提升和成本降低的重要來源。結合起來,我們現在可以想象由資源相對有限的組織構建出非平凡且相關的現實世界AI系統。

第三,DeepSeek的進步加上基於代理的AI系統的進步使得更容易想象創建專門的AI代理,並將它們混合搭配以創建有能力的AI系統。單體「通用AI」可能仍然是學術興趣所在,但從成本效益和更好的工程角度來看(例如模塊化),創建由可分別構建、測試、維護和部署的組件組成的系統更為合適。AI代理之間以及與人類的合作模式複製瞭解決問題的人類「團隊」的概念。有時問題可以通過單一的整體天才解決,但這通常不是最好的策略。因此,DeepSeek通過驗證開源共享想法(數據是另一回事)、展示持續算法創新的力量以及使經濟上創建AI代理成為可能來幫助恢復平衡,這些代理可以經濟地組合在一起,生成有用且強大的AI系統。當然,仍有問題需要回答:

● 如何在尊重版權和其他知識產權的同時,民主化獲取構建模型所需的大數據?

● 當某些專業學科的數據量不足時,我們如何構建專業化模型?

● 如何評估一個使用多個AI代理的系統以確保其正常運行?即使單個代理已驗證,是否意味着它們組合后也有效?

Yejin Choi 的評論

Yejin Choi 是 Dieter Schwartz Foundation HAI 教授、計算機科學教授以及斯坦福 HAI 的高級研究員

DeepSeek R1模型的成功表明,當有一個「解決方案存在的證明」(如OpenAI的o1所示),其他人找到解決方案只是時間問題。DeepSeek決定分享R1訓練的詳細方案和不同大小的開源權重模型具有深遠的影響,因為這將進一步加速進展——我們將見證新的開源努力不斷複製和增強R1。這種轉變標誌着暴力擴展時代的結束,迎來了一個新的階段,該階段專注於通過數據合成、新的學習框架和新的推理算法繼續擴展。

然而,當前的一個重大問題是,如何利用這些強大的人工智能系統來造福全人類。一個模型在數學基準上的卓越表現並不能立即轉化為解決人類面臨的困難挑戰,包括日益加劇的政治緊張局勢、自然災害或持續傳播的虛假信息。技術能力和實際社會影響之間的脱節仍然是該領域的最緊迫挑戰之一。

Michele Elam 的評論

Michele Elam 是 William Robertson Coe 人文教授、斯坦福 HAI 的高級研究員和 Bass University 本科教育研究員

面對最近中國發布的明顯更便宜、計算需求更低、環境負擔更小的DeepSeek AI聊天機器人,美國的焦慮和困惑之中,很少有人考慮這對AI在藝術領域的影響。事實上,DeepSeek對文學、表演藝術、視覺文化等方面的意義,在國家安全、美國AI行業的經濟貶值以及開源對創新的利弊等看似更高層次的焦慮面前,似乎完全無關緊要。

但實際上,DeepSeek在隱私保護、數據來源和版權辯論方面的完全不透明性對藝術領域產生了巨大影響。「不透明」實際上是一個寬容的術語:DeepSeek對這些問題採取了一種「懶得理會」的態度。不用説,創意產業中的SAG-AFTRA罷工,《紐約時報》及其他正在進行的訴訟。

在許多方面,DeepSeek能夠逃脱這種公然的敷衍態度是我們自己的錯。其聊天機器人的流行是對——同時也是利用了——美國消費者自身越來越傾向於忽視這些問題的一種放大反映,而行業則通過業務模式積極鼓勵這種傾向,以投資回報率為名轉移我們的注意力。

像TikTok一樣,DeepSeek利用了過去幾年我們在設備上點擊不斷更新、越來越模糊的服務條款時逐漸放棄隱私權的趨勢(通常是爲了所謂的神奇營銷委婉語「個性化」)。

可以説,正如許多人已經指出的那樣,DeepSeek對私人和敏感數據的貪婪消費利用了國家缺乏對AI的任何監管(不同於英國和歐盟),並在許多方面使國家處於風險之中,因為我們秉持着「監管阻礙創新」的信條。

但是,就藝術而言,我們應該關注DeepSeek通過預先審查、與其民族主義意識形態的一致性以及我們對其現實建模算法的不知情或無意識同意控制我們想象力鑰匙的方式。斯坦福大學目前通過微軟Azure項目適應了一個「更安全」的DeepSeek版本用於實驗,並警告社區不要使用商業版本,因為存在安全和隱私問題。無論如何,DeepSeek的發佈突顯了這項技術巨大的影響力,尤其是在塑造我們體驗現實的方式上——甚至我們所認為的現實本身。正如柏拉圖和亞里士多德關於戲劇和詩歌影響力的早期辯論所暗示的那樣,這也正是藝術的力量所在。

Mykel Kochenderfer 的評論

Mykel Kochenderfer 是斯坦福大學航空航天系副教授和斯坦福 HAI 的高級研究員

人工智能越來越多地被用於支持關鍵安全或高風險場景,從自動駕駛車輛到臨牀決策支持。然而,調和當前AI系統的不可解釋性與高風險應用中的安全工程標準仍然是一個挑戰。DeepSeek R1的一個特別引人注目的特點是它在響應複雜查詢時的推理透明度。它提供的詳細程度可以促進審計並幫助建立對其生成內容的信任。這種在提問時語言模型提供的透明推理被稱為推理時可解釋性。儘管語言模型的推理時可解釋性仍處於起步階段,需要大量開發才能成熟,但我們今天看到的小步前進可能會引領未來系統更加安全可靠地輔助人類。

另一個障礙在於將近期人工智能的進展應用於許多應用程序所需的大量數據和計算資源。DeepSeek展示了開發新方法減少對大型數據集和重型計算資源依賴的巨大潛力。我希望學術界與工業界合作能夠加速這些創新。通過創建更高效的算法,我們可以使語言模型在邊緣設備上更加普及,消除對昂貴基礎設施的持續連接需求。憑藉嵌入這些語言模型的大量常識知識,我們可以開發出更智能、更有用、更具彈性的應用程序——特別是在風險最高的時候尤為重要。

James Landay 的評論

James Landay 是斯坦福大學計算機科學教授、Anand Rajaraman 和 Venky Harinarayan 工程學院教授以及斯坦福 HAI 的聯合主任

DeepSeek 對該領域來説是一件好事。他們公開了自己的研究成果,模型以開源權重發布,這意味着其他人可以修改並在自己的服務器上運行它。他們降低了AI的成本,這對推動AI研究和應用的發展是有益的。對AI最大的批評之一是訓練大型基礎模型和支持這些模型查詢/推理的可持續性影響。DeepSeek 展示了許多有用的優化措施,減少了這兩方面的計算成本。這對整個領域都是有益的,因為其他公司或研究人員可以使用相同的優化(它們既在技術報告中記錄,代碼也是開源的)。

「通過技術報告和開源代碼分享創新的做法延續了過去40年推動計算機科學發展的開放研究傳統。」

這種通過技術報告和開源代碼分享創新的做法延續了過去40年推動計算機科學發展的開放研究傳統。作為研究領域,我們應該歡迎這種類型的工作。它將幫助每個人的工作變得更好。雖然許多美國公司傾向於專有模型,並且在數據隱私和安全方面仍存在疑問,但 DeepSeek 的開放方法促進了更廣泛的參與,造福全球AI社區,促進迭代、進步和創新。

Percy Liang 的評論

Percy Liang 是斯坦福大學計算機科學副教授、基礎模型研究中心(CRFM)主任和斯坦福 HAI 的高級研究員

DeepSeek R1 表明先進的AI將廣泛可用,並且難以控制,也沒有國界。這也表明,除了擁有大量的計算資源外,聰明才智和工程設計同樣重要。對於學術界而言,更多強大開源權重模型的可用性是一個福音,因為它允許再現性、隱私保護以及對先進AI內部的研究。

Christopher Manning 的評論

Christopher Manning 是斯坦福大學語言學和計算機科學系 Thomas M. Siebel 機器學習教授以及斯坦福 HAI 的副主任

人們將其視為某種突如其來的驚喜,但實際上如果你一直關注開源AI的話,這並不意外。DeepSeek 已經公開發布開源模型和詳細的技術研究報告超過一年。DeepSeek V3的訓練成本在2024年12月公佈;R1-Lite-Preview版本在2024年11月發佈。

「長久以來作為一個推進開放科學和工程的開放國家,如今瞭解現代LLM設計和工程細節的最佳途徑是閲讀中國公司的詳盡技術報告,這是一種可悲的狀態。」

這次發佈表明,所謂的美國「前沿」AI公司並沒有巨大的技術護城河。現在有許多優秀的中國大型語言模型(LLMs)。最多這些公司領先六個月,也許只有OpenAI真正領先。長久以來作為一個推進開放科學和工程的開放國家,如今瞭解現代LLM設計和工程細節的最佳途徑是閲讀中國公司的詳盡技術報告,這是一種可悲的狀態。

DeepSeek 進行了一些非常好的數據工程,最小化了數據流並允許在fp8下進行高效穩定的訓練。他們在技術上有適度的進步,使用了一種獨特的多頭潛在注意力形式、混合專家系統中的大量專家,以及他們自己簡單高效的強化學習(RL)形式,這與一些人偏好基於規則的獎勵方式不同。但這並不是完全下一代的技術。DeepSeek 使用的方法和模型與其他公司相似,Deepseek-R1 在迅速趕上並提供類似 OpenAI o1 質量的產品方面取得了突破。這不是一種新的能力突破。

然而,DeepSeek-R1 的發佈確實顯著推進了開源LLM的前沿,並表明美國無法遏制強大的開源LLM的發展。這也可能意味着更多的美國公司將開始在其產品中使用中國的LLM,而在此之前,他們通常避免使用這些模型,更傾向於使用Meta的Llama模型或其他來自Databricks等公司的模型。

Julian Nyarko 的評論

Julian Nyarko 是斯坦福法學院教授和斯坦福 HAI 的副主任

大型語言模型(LLMs)是一種「通用技術」,用於許多領域。有些公司創建這些模型,而其他公司則將其用於特定目的。當前的一個關鍵辯論是誰應對有害模型行為負責——是開發這些模型的開發者還是使用這些模型的組織。在這種背景下,由中國初創公司開發的 DeepSeek 新模型突顯了AI開發的全球性質如何使監管響應複雜化,特別是在不同國家有不同的法律規範和文化理解的情況下。雖然出口管制被認為是一個重要的工具,以確保領先的AI實現符合我們的法律和價值體系,但 DeepSeek 的成功凸顯了當競爭國家能夠獨立開發和發佈最先進的模型時,這類措施的侷限性。DeepSeek 開源發佈的性質進一步複雜化了法律責任的問題。由於模型可以自由獲取、修改和部署,認為模型開發者能夠並且將會有效解決其模型帶來的風險的想法可能會變得越來越不現實。相反,監管的重點可能需要轉向模型使用的下游后果——可能將更多的責任放在那些部署模型的人身上。

Amy Zegart 的評論

Amy Zegart 是胡佛研究所 Morris Arnold 和 Nona Jean Cox 高級研究員、弗里曼·斯波格利國際問題研究所高級研究員、斯坦福 HAI 教授(兼任)以及政治學教授(兼任)

過去幾周,關於 DeepSeek 的討論集中在芯片和護城河上。DeepSeek 究竟囤積、走私或創新了多少以繞過美國的出口控制?鑑於 DeepSeek 的進步,研究人員現在需要多少以及什麼樣的芯片來在前沿領域進行創新?像 OpenAI 這樣的美國超大規模公司最終是否花費了數十億美元建立競爭護城河或僅僅是一個提供虛假安全感的馬其諾防線?這些都是重要的問題,但答案需要時間。

「上個月撰寫突破性 R1 論文的200名工程師中,幾乎全部在中國大學接受教育,大約一半的人只在中國學習和工作過。這對美國政策制定者來説應該是一個警示。」

然而,三個嚴重的地緣政治影響已經顯而易見:

1. 本土人才的成功:DeepSeek 成功利用了本土人才。上個月撰寫突破性 R1 論文的200名工程師中,幾乎全部在中國大學接受教育,大約一半的人只在中國學習和工作過。這對美國政策制定者來説應該是一個警示。在科技時代,人才是國家力量的重要來源。「美國吸引全球最優秀人才」的口號雖然常被提及,但越來越不準確。中國及其他地區高等教育水平的提升和高等教育機構的顯著改進正在重新繪製知識權力地圖。與此同時,美國的 K-12 教育系統處於混亂狀態,美國15歲學生在最近一次國際測試中的數學成績排名第34位,落后於斯洛文尼亞和越南。

2. 模仿美國大學而非企業:DeepSeek 模仿的是美國的大學,而不是企業。這家初創公司僱傭了年輕的工程師,而不是經驗豐富的行業老手,並給予他們自由和資源去做「瘋狂科學」,旨在長期發現,而不是為下一季度的產品開發。商業化是創新的重要組成部分,但突破往往始於沒有明確產品或利潤目標的基礎研究。這種基礎研究是大學的生命線,幾十年來一直是美國創新領導地位的支柱,催生了從立方衞星到 COVID-19 疫苗的一切。然而,今天中國在基礎研究上的投資速度是美國政府的六倍,如果當前趨勢繼續下去,中國將在十年內超過美國。這是一個至關重要的長期創新戰場,而美國正在放棄它。

3. 市場動盪:DeepSeek 的宣佈擾亂了美國市場,導致納斯達克綜合指數下跌3%,英偉達股價下跌17%,抹去了6000億美元的價值。這是美國曆史上單日最大的公司損失,這一數字相當於美國年度國防預算的65%。今天的意外后果可能是明天的故意行為。想象一下,一個對手故意宣佈一項真實或欺詐性的技術進步,以懲罰特定公司或動搖另一個國家的資本市場。這種灰色地帶經濟武器可以精確打擊或造成巨大影響,可能難以甚至無法歸因於刻意活動。而且它在沒有預警的情況下效果最佳。

DeepSeek 不僅僅是發佈了新的 AI 進展;它揭示了一個新興的地緣政治時代的輪廓,這個時代有新的國家力量來源和新的戰場。

結語

DeepSeek 的發佈不僅展示了中國在人工智能領域的強勁崛起,也引發了全球對開源、法律責任、地緣政治力量轉移及隱私問題的重新思考。斯坦福大學專家們的多學科視角揭示了美國長期以來依賴封閉技術和出口控制的戰略正在面臨挑戰。與此同時,DeepSeek 的成功凸顯了開放創新模式的優勢和潛力,但也暴露了其在隱私保護和數據透明性方面的不足。

這種技術與政策層面的雙重探討,提醒我們在享受AI帶來的便利時,必須更加關注其長遠影響和社會責任。隨着全球AI競爭的加劇,如何在全球範圍內建立統一且有效的監管機制,確保技術創新與社會福祉並行不悖,將成為未來亟待解決的重要課題。DeepSeek的成功不僅是技術上的里程碑,更是對未來全球科技格局的一次深刻啟示。這要求各國在追求技術突破的同時,也要加強國際合作與對話,共同應對這一新時代帶來的機遇與挑戰。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。