熱門資訊> 正文
2025-08-24 13:10
編輯:KingHZ 桃子
【新智元導讀】剛剛,AI界傳奇Jeff Dean深度訪談重磅放出!作為谷歌大腦奠基人、TensorFlow與TPU背后的關鍵推手,他親述了這場神經網絡革命的非凡歷程。
剛剛,「現代互聯網架構之父」Jeff Dean的最新對談流出。
這位AI領域的傳奇,是Google Brain的奠基者,也是推動神經網絡走向規模化的關鍵人物。
從讓神經網絡「看懂貓」的重大突破,到TensorFlow與TPU的誕生,他的故事幾乎是一部AI發展史。
在最新一期「登月播客」(The Moonshot podcast)深度訪談中,Jeff Dean回顧了個人成長經歷、Google Brain的早期故事,以及他對AI未來的思考。
節目中,他揭祕了他本人所知的一些細節和趣事:
· 小時候,Jeff Dean打印了400頁源碼自學。
· 90年代,他提出「數據並行/模型並行」概念時,還沒這些術語。
· Google Brain的最初靈感,竟然是在谷歌的微型茶水間與吳恩達的一次閒聊中誕生。
· 「平均貓」圖像的誕生,被Jeff比作「在大腦里找到了觸發祖母記憶的神經元」。
· 他把AI模型比作「蘇格拉底式夥伴」,能陪伴推理、辯論,而不是單向工具。
· 對未來的隱喻:「一億老師,一個學生」,人類不斷教AI模型,所有人都能受益。
超級工程師,早已看好神經網絡
Jeff是工程超級英雄口中的「工程超級英雄」,很少有人像Jeff Dean這樣的單個工程師,贏得人們如此多的仰慕。
主持人的第一個問題是:Jeff Dean是如何成為工程師的?
Jeff Dean認為他有一個不同尋常的童年。因為經常搬家,在12年里他換了11所學校。
在很小的時候,他喜歡用樂高積木搭建東西,每次搬家總要帶上他的樂高套裝。
當九歲的時候,他住在夏威夷。
Jeff的父親是一名醫生,但他總是對計算機如何用於改善公共衞生感興趣。當時如果想用計算機,他只能去健康部門地下室的機房,把需求交給所謂的「主機大神」,然后等他們幫你實現,速度非常慢。
在雜誌上,Jeff的爸爸看到一則廣告,買下了DIY計算機套件。那是一臺Intel 8080的早期機型(大概比Apple II還要早一兩年)。
最初,這臺電腦就是一個閃爍燈和開關的盒子,后來他們給它加了鍵盤,可以一次輸入多個比特。再后來,他們安裝了一個BASIC解釋器。Jeff Dean買了一本《101個BASIC語言小遊戲》的書,可以把程序一行一行敲進去,然后玩,還能自己修改。
這就是他第一次接觸編程。
后來,Jeff一家搬到明尼蘇達州。全州的中學和高中都能接入同一個計算機系統,上面有聊天室,還有交互式冒險遊戲。
這就像「互聯網的前身」,比互聯網普及早了15~20年。
當時,Jeff大概13、14歲,他在玩兒的一款多人在線的遊戲源碼開源了。
Jeff偷偷用了一臺激光打印機,把400頁源代碼全都打印了出來,想把這款多人主機遊戲移植到UCSD Pascal系統上。
這個過程讓他學到了很多關於併發編程的知識。
這是Jeff Dean第一次編寫出並不簡單的軟件。
大概是91年,人工智能第一次抓住了Jeff Dean想象力。
具體而言,是使用lisp代碼進行遺傳編程。
而在明尼蘇達大學本科的最后一年,Jeff Dean第一次真正接觸了人工智能。
當時,他上了一門並行與分佈式編程課,其中講到神經網絡,因為它們本質上非常適合並行計算。
那是1990年,當時神經網絡剛好有一波熱潮。它們能解決一些傳統方法搞不定的小問題。
當時「三層神經網絡」就算是「深度」了,而現在有上百層。
他嘗試用並行的方法來訓練更大的神經網絡,把32個處理器連在一起。但后來發現,需要的算力是100萬倍,32個遠遠不夠。
論文鏈接:https://drive.google.com/file/d/1I1fs4sczbCaACzA9XwxR3DiuXVtqmejL/view
雖然實驗規模有限,但這就是他和神經網絡的第一次深度接觸,讓他覺得這條路很對。
即便到了90年代末,神經網絡在AI領域已經完全「過時」了。之后,很多人放棄了「神經網絡」研究。
但Jeff Dean並沒有完全放棄。當時整個AI領域都轉移了關注點,他就去嘗試別的事情了。
畢業后,他加入了Digital Equipment Corporation在Palo Alto的研究實驗室。
數字設備公司Digital Equipment Corporation,簡稱DEC,商標迪吉多Digital,是成立於1957年的一家美國電腦公司,發明了PDP系列迷你計算機、Alpha微處理器,后於1998年被康柏電腦收購
后來,他加入谷歌,多次在不同領域「從頭再來」:
搜索與信息檢索系統、大規模存儲系統(Bigtable、Spanner)、機器學習醫療應用,最后才進入Google Brain。
谷歌大腦祕辛:一次茶水間閒聊
在職業生涯里,Jeff Dean最特別的一點是:一次又一次地「從零開始」。
這種做法激勵了很多工程師,證明了「影響力」不等於「手下的人數」,而是推動事情發生的能力。
就像把雪球推到山坡上,讓它滾得足夠快、足夠大,然后再去找下一個雪球。Jeff Dean喜歡這種方式。
然后在Spanner項目逐漸穩定后,他開始尋找下一個挑戰,遇到了吳恩達。
在谷歌的茶水間偶然碰面,吳恩達告訴Jeff Dean:「在語音和視覺上,斯坦福的學生用神經網絡得到了很有前景的結果。」
Jeff一聽就來了興趣,説:「我喜歡神經網絡,我們來訓練超大規模的吧。」
這就是Google Brain的開端,他們想看看是否能夠真正擴大神經網絡,因為使用GPU訓練神經網絡,已經取得良好的結果。
Jeff Dean決定建立分佈式神經網絡訓練系統,從而訓練非常大的網絡。最后,谷歌使用了2000台計算機,16000個核心,然后説看看到底能訓練什麼。
漸漸地,越來越多的人開始參與這個項目。
谷歌在視覺任務訓練了大型無監督模型,為語音訓練了大量的監督模型,與搜索和廣告等谷歌部門合作做了很多事情。
最終,有了數百個團隊使用基於早期框架的神經網絡。
紐約時報報道了這一成就,刊登了那隻貓的照片,有點像谷歌大腦的「啊哈時刻」。
因為他們使用的是無監督算法。
他們把特定神經元真正興奮的東西平均起來,創造最有吸引力的輸入模式。這就是創造這隻貓形象的經過,稱之為「平均貓」。
在Imagenet數據集,谷歌微調了這個無監督模型,在Imagenet 20000個類別上獲得了60%的相對錯誤率降低(relative error rate reduction)。
同時,他們使用監督訓練模型,在800臺機器上訓練五天,基本上降低了語音系統30%的錯誤率。這一改進相當於過去20年的語音研究的全部進展。
因此,谷歌決定用神經網絡進行早期聲學建模。這也是谷歌定製機器學習硬件TPU的起源。
注意力機制三部曲
之后不久,谷歌大腦團隊取得了更大的突破,就是注意力機制(attention)。
Jeff Dean認為有三個突破。
第一個是在理解語言方面,詞或短語的分佈式表示(distributed representation)。
這樣不像用字符「New York City」來表示紐約市,取而代之的是高維空間中的向量。
紐約市傾向於出現的固有含義和上下文,所以可能會有一個一千維的向量來表示它,另一個一千維的向量來表示番茄(Tomato)。
而實現的算法非常簡單,叫做word2vec(詞向量),基本上可以基於試圖預測附近的詞是什麼來訓練這些向量。
論文鏈接:https://arxiv.org/abs/1301.3781
接下來,Oriol Vinyals, Ilya Sutskever和Quoc Le開發了一個叫做序列到序列(sequence to sequence)的模型,它使用LSTM(長短期記憶網絡)。
論文鏈接:https://arxiv.org/abs/1409.3215
LSTM有點像是一個以向量作為狀態的東西,然后它處理一堆詞或標記(tokens),每次它稍微更新它的狀態。所以它可以沿着一個序列掃描,並在一個基於向量的表示中記住它看到的所有東西。
它是系統運行基礎上的短期記憶。
結果證明這是建模機器翻譯的一個非常好的方法。
最后,纔是注意力機制,由Noam Shazeer等八人在Transformer中提出的注意力機制。
這個機制的想法是,與其試圖在每個單詞處更新單個向量,不如記住所有的向量。
所以,注意力機制是這篇非常開創性的論文的名字,他們在其中開發了這種基於transformer的注意力機制,這個機制在序列長度上是n平方的,但產生了驚人的結果。
LLM突破觸及門檻,自動化閉環顛覆人類
一直以來,LLM神經網絡運作機制很難被人理解,成為一個無法破譯的「黑箱」。
而如今,隨着參數規模越來越龐大,人們無法像理解代碼一樣去理解LLM。
研究人員更像是在做「神經科學」研究:觀察數字大腦的運作方式,然后試着推理背后的機制。
人類理解模型的想法,未來會怎麼發展?
Jeff Dean對此表示,研究這一領域的人,把它稱之為「可解釋性」。所謂可解釋性,就是能不能搞清楚LLM到底在做什麼,以及它為什麼會這麼做?
這確實有點像「神經科學」,但相較於研究人類神經元,LLM畢竟是數字化產物,相對來説探測比較容易。
很多時候,人們會嘗試做一些直觀的可視化,比如展示一個70層模型里,第17層在某個輸入下的情況。
這當然有用,但它還是一種比較靜態的視角。
他認為,可解釋性未來可能的發展一個方向——如果人類想知道LLM為何做了某種決定,直接問它,然后模型會給出回答。
主持人表示,自己也不喜歡AGI術語,若是不提及這一概念,在某個時候,計算機會比人類取得更快的突破。
未來,我們需要更多的技術突破,還是隻需要幾年的時間和幾十倍的算力?
Jeff Dean表示,自己避開AGI不談的原因,是因為許多人對它的定義完全不同,並且問題的難度相差數萬億倍。
就比如,LLM在大多數任務上,要比普通人的表現更強。
要知道,當前在非物理任務上,它們已經達到了這個水平,因為大多數人並不擅長,自己以前從未做過的隨機任務。在某些任務中,LLM還未達到人類專家的水平。
不過,他堅定地表示,「在某些特定領域,LLM自我突破已經觸及門檻」。
前提是,它能夠形成一個完全自動化閉環——自動生成想法、進行測試、獲取反饋以驗證想法的有效性,並且能龐大的解決方案空間中進行探索。
Jeff Dean還特別提到,強化學習算法和大規模計算搜索,已證明在這種環境中極其有效。
在眾多科學、工程等領域,自動化搜索與計算能力必將加速發展進程。
這對於未來5年、10年,甚至15-20年內,人類能力的提升至關重要。
未來五年規劃
當問及未來五年個人規劃時,Jeff Dean稱,自己會多花些時間去思考,打造出更加強大、更具成本效益的模型,最終部署后服務數十億人。
衆所周知,谷歌DeepMind目前最強大的模型——Gemini 2.5 Pro,在計算成本上非常高昂,他希望建造一個更優的系統。
Jeff Dean透露,自己正在醖釀一些新的想法,可能會成功,也可能不會成功,但朝着某個方向努力總會有奇妙之處。
參考資料:
https://www.youtube.com/watch?v=OEuh89BWRL4