繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

剛剛,何愷明官宣入職谷歌DeepMind!

2025-06-26 08:46

AI圈炸了!CV大牛何愷明正式官宣入職谷歌。

已更新的個人主頁上,明確寫着:兼職谷歌DeepMind傑出科學家。

與此同時,他依然保留MIT EECS終身教授的身份。

這位CV領域的傳奇人物,因提出ResNet而名震江湖,徹底改變了深度學習的發展軌跡,成為現代AI模型的基石。

如今,這位「學界+業界」雙軌並行的跨界大神,再次用行動證明了他的無限可能!

對於谷歌DeepMind而言,何愷明的加入更是如虎添翼。

他的技術專長,涵蓋了計算機視覺、深度學習等核心領域,學術影響力在全球範圍內有目共睹。

Demis Hassabis曾公開表示,AGI可能在未來5-10年內實現。

何愷明的到來,無疑將助力這一終極目標的加速實現。

ResNet之父再跨界,DeepMind迎超級大腦

何愷明曾是微軟亞研院研究院、Meta「明星實驗室」FAIR的研究科學家,專注的研究領域包括深度學習和計算機視覺。

通過計算機視覺問題的視角,致力於開發適用於各種領域的通用方法。

在正式入職此之前,便早有消息傳出何愷明要跨入學術界。

尤其是,他於23年3月在MIT進行的Job talks(求職演講),更加坐實了這一消息。

他目前的研究重點聚焦在建立一個計算機模型,以便從複雜的世界中學習表徵並開發智能。

長期目標是,用能力更強的人工智能來增強人類智能。

同時,他在計算機視覺和深度學習領域發表了一系列極具影響力的論文。截至目前,他的論文被引用次數超過71萬次。

何愷明關於深度殘差網絡(ResNet)的論文是谷歌學術指標2019年、2020年和2021年,所有研究領域中被引用次數最多的論文。

論文地址:https://openaccess.thecvf.com/content_cvpr_2016/papers/He_Deep_Residual_Learning_CVPR_2016_paper.pdf

另外,他在視覺物體檢測和分割方面的研究成果,包括Faster R-CNN和Mask R-CNN,也都產生了重大影響,同樣是這些領域被引用次數最多的論文之一。

論文地址:https://proceedings.neurips.cc/paper_files/paper/2015/file/14bfa6bb14875e45bba028a21ed38046-Paper.pdf

論文地址:https://openaccess.thecvf.com/content_ICCV_2017/papers/He_Mask_R-CNN_ICCV_2017_paper.pdf

2009年,何愷明成為首獲計算機視覺領域三大國際會議之一CVPR「最佳論文獎」的中國學者。

作為第一作者,他還獲得了CVPR 2009,CVPR 2016和ICCV 2017(Marr Prize)的最佳論文獎,並獲得了ICCV 2017最佳學生論文獎。

2017年4月,何愷明曾獲選香港中文大學(中大)工程學院傑出校友。

同時,他也是領域內多個著名獎項的獲得者,包括2018年PAMI青年研究員獎,2018年ECCV、2021年CVPR最佳論文榮譽獎,以及2021年 ICCV Everingham獎。

從高考狀元到業界大神

何愷明是廣東人,在廣州執信中學讀書時曾獲得全國物理競賽和省化學競賽的一等獎。

2003年5月,何愷明獲得保送清華的資格,但是他依然參加了高考並且以滿分900分的成績,成為當年廣東省9位滿分狀元之一。

進入清華大學以后,何愷明放棄保送的機械工程及其自動化專業,進入了基礎科學班。

他在本科還沒有畢業的時候,就進入了微軟亞洲研究院實習。出於對於計算機視覺的興趣,他選擇加入了計算機視覺組。

在2007年獲得了清華大學學士學位之后,4年時間就拿到了香港中文大學的博士學位。

在2016年加入FAIR之前,何愷明於2011年至2016年在微軟亞洲研究院(MSRA)擔任研究員。

他的第一篇CVPR獲獎論文就發表於在微軟亞洲研究院工作期間。

今年的成果

何愷明在研究界,每隔一段時間就會帶來新的成果,更新頻率非常快。

前段時間,他還聯手Yann LeCun共同發現了一種沒有歸一化層的Transformer,僅用9行代碼就實現了。

值得一提的是,這篇研究還被CVPR 2025錄用。

論文地址:https://arxiv.org/abs/2503.10622 論文地址:https://arxiv.org/abs/2503.10622

項目地址:https://github.com/jiachenzhu/DyT

今年2月,他帶隊將大自然中的「分形」概念注入AI,提出了「分形生成模型」(fractal generative models)。

並且,在像素級圖像生成上,團隊驗證了新方法的強大——

首次將逐像素建模的精細分辨率的計算效率,提升了4000倍。

論文地址:https://arxiv.org/abs/2502.17437 論文地址:https://arxiv.org/abs/2502.17437

上個月,何愷明又聯手CMU團隊,提出了系統且高效的一步生成建模框架MeanFlow,無需預訓練就能讓AI生圖一步到位。

論文地址:https://arxiv.org/abs/2505.13447 論文地址:https://arxiv.org/abs/2505.13447

他的研究經驗的創新能力,將為谷歌DeepMind未來大模型研發注入更多的可能和動力。

(聲明:本文僅代表作者觀點,不代表新浪網立場。)

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。