熱門資訊> 正文
2025-01-14 08:01
當你最討厭的人罵你時,那你一定是做對了什麼
2024,對於我來説發生了兩件大事:
1、小區業委會,成功換屆改選
2、美國,換了新總統
上面兩件事對我來説都很重要;
前者會影響小區接下來的房價走勢,也算是對我前半程買房的一個交代,畢竟對絕大多數國人來説,不動產是最重要的資產配置。
后者會左右接下來幾年全球局勢的變化,也直接影響到我后半程的職業生涯-股權投資。
對於過去的2024年,該怎麼去形容?我試着用幾個AI大模型做搜索,得到的答案有復甦、變革、蜕變。我不是很滿意,想了好半天,只能找到一個字:麻。
麻,可以跟很多字結合,但意思卻大相徑庭。比如:贏麻了,又比如:麻木。
所以,麻這個字我覺得還是比較精準,包含了五味雜陳。
關於麻這個字,作為創投圈的一員,2024我的體感是:時間過得很快,但總感覺什麼都沒發生,彷彿失去了知覺。
欣喜的是,在一片麻木中,我還是為大家找到一了些有趣的變化,今天跟大家一起做個覆盤。
1
投早、投小,拿不下三四線搖擺州
從上圖可以看出過去幾年的創投趨勢變化。2018年的時候,北京一個城市,當年的融資數量幾乎是上海和深圳的總和。經過了五年,這三個一線城市的投融資數量都在下滑,整體在逼近。
在三個城市之后,「長三角」的創投生態是碾壓式的。
杭州、蘇州、南京都保持了較強的活力。成都當之無愧地成為西南區域的創投聚集地,但廣州的創投生態正在加速下滑。
2024年,各城市的投融資數量只會更低。
除去上面的8個城市,其余城市的創投生態其實都是非常堪憂的,不是中國的每個城市都適合做科創孵化和培育。
過去兩年,我一口氣跑了中國十幾個城市,很多城市都是*次去。沒有調查,就沒有發言權。
當你真的有機會去看看,來到基層考察,你就會發現:在中國,真正具備科創生態土壤的城市,一隻手*數得過來。
過去兩年,很多GP管理人紛紛扎堆跟各級政府合作,一開始是看到了政府國資的大手筆。但逐漸發現,返投卻成了問題。慢慢地,政府國資開始充當投資經理」的角色,積極主動地給GP管理人推項目。直到最近,管理人才幡然醒悟,本來想着自己用少量的社會資本,撬動政府的資金;但沒想到被甕中捉鼈,好不容易募集到的社會化資本,被國資撬動,配合去完成招商返投,原來自己變成了配資的主力。
當然國家也看到了潛在的危機。2025年一開始,國務院辦公廳1號文件就出台了促進政府投資基金高質量發展的指導意見,以后政府的投資行為跟地方招商會逐漸分離,政府投資會變得更純粹。
如果説積壓的城投債,可以靠中央化債;GP辛苦募集到的國有-民營混合基金,基金一旦到期,不知道靠誰來接手化債。
2
消失的創業者
過去兩年,中國的科技企業出現了兩極分化。
一方面,C輪及以后的科技企業,經歷完陣痛和出清,日子慢慢好過了,因為攪局的對手基本消失了。根據晚點LatePost的最新報道,2024年,中國TOP15的互聯網上市公司首次實現全部盈利,B站三季度盈虧平衡,小紅書在2024年有望實現數億美金淨利潤。位列頭部的幾家互聯網巨頭相較2023年,利潤都有了較大提升;騰訊2024前三季度的利潤已超過2023年全年,另外幾家的經營業績,甚至創造了近幾年新高。
中國TOP15互聯網公司市值總和變化(來自:晚點Latepost)
另一方面,A輪附近的科技企業卻迎來了更殘酷的考驗。很多概念不錯的項目,在天使輪-A輪得到追捧,人民幣玩家一直瘋狂A+++,之后迅速進入失重狀態。原本A輪之后是美元VC/PE的重點狙擊區,如今美元離場,成長期的科技投資變成了真空地帶,無人接盤。
這段時間,國資提到最多的就是:投早、投小、投硬,還反覆提到耐心資本。但坦白説,國資真正踐行投早、投小還是面臨着很大的困難。
最近拜訪一位體制內的老領導,他跟我説,阿矛,容錯機制在我們體制內一直存在,涉及到的決策可不只是投資。你不要只看政策怎麼説,你要關注具體案例,政策到底給哪些事件容錯開了綠燈。我聽完后,頓時醍醐灌頂,不得不感慨:姜,還是老的辣!
這就好比我們經常聽到體制內的一句話:這件事,原則上是可以的,「但是」后面的事情,你就要細細揣摩了。
過去幾年,各級政府/國資出資,以直投的方式參與到股權投資市場,初衷是響應國家號召,加速科創企業的發展,營造一個健康的創新土壤,本質並不是衝着增值保值。但股權投資基金作為一種金融產品,天生就被賦予要為后面的LP實現增值保值的重任。當政府的公共職能遇到了資產的增值保值,很多事情就開始變得扭曲了。
自2014年開啟的股權投資盛宴,陸續在2024年迎來了退出大周期。
IPO,從噴水、流水,現在是滴水
併購,路一直在,但一直找不到路
回購,這是*確定的退出路徑了
一批成長期的科技企業,從估值打折,到打骨折,最后是創始人被打骨折
企業的實控人從失望、失信,再到失蹤
多年后回看這段過程,他們只不過是經濟浪潮滾滾向前中的滄海一粟,某種程度上他們也是經濟泡沫的受害者
慶幸的是進入2025年,很多企業家逐漸從資本的恐慌中走了出來,倒不是因為企業的經營業績出現了好轉,而是他們逐漸從質疑回購、理解回購,再到躺平迎接回購。回購的錢一次性還不上,可以慢慢還;一旦時間拉長,你就會發現很多問題也就變的不是問題了。
與創業者一起消失的,還有加速出清的GP基金管理人。這兩年身邊越來越多的VC投資人轉行或者被迫離場;勉強留在牌桌上的投資人,雖然習慣性地還在看項目,但出手很少(業內人稱之為:刷項目);倒不是因為基金沒有錢,主要是投資人都很迷茫,大家很難構建一個系統性的投資機會。多投,意味着多了一個投后的任務,也意味着不遠的未來又多了一份回購追討。
但,再差的資本環境,仍然存在着零星的熱點。
3
AI,為數不多的資本共識
AI,一條神祕的賽道
首先,無論你碰到什麼樣的投資人,問他最近在看什麼?他都會提及AI。識趣的人,簡單寒暄后,會留下一句:有好的項目,兄弟們一起投;或者也會説,有靠譜的項目我給你接盤,然后相互匆匆告別。最怕你多問一句,你覺得AI哪個方向值得投資?只要你不尷尬,尷尬的就是別人,因為大家都沒有思路。
AI,又是一條神奇的賽道
因為不同的投資人,總能在自己關注的領域,找到跟AI的交集。
看新材料的投資人,會研究玻璃基板散熱,會關注先進封裝,會關注HBM,因為這會影響GPU的性能發揮,GPU可是AI*的基石
看半導體的投資人,會關注數字芯片,從GPU、DPU再到XPU,很多還會關注硅光芯片、光通信,畢竟這直接關乎到底層AI算力速率
看軟件的投資人,會關注AI+產業,俗稱To B人工智能小能手。AI+工業/零售/電力/金融/教育……彷彿一切產業皆可AI化,因為再深了,確實咱也看不懂。。。
看消費的投資人,也重新回到了AI賽道。消費級AI電子產品,別管智能眼鏡、頭顯、桌面電子消費品、人形機器人,一個消費品只要通電,有嵌入式代碼,彷彿都可以叫AI智能終端
看先進製造的投資人,會關注電機、減速器、絲槓、機器人關節、靈巧手、傳感器等。雖然沒有魄力豪賭具身智能的本體,但一定要在具身智能的零部件身上,找到屬於自己的專精特新之路
看航空航天的投資人,會關注低軌互聯網衞星產業。畢竟AI智能終端,一旦進入地面網絡覆蓋稀疏的地方,想要實現雲端推理,必須依靠衞星互聯網
當年學習理化生基礎專業的同學,在夾縫中也給自己找了一個新的方向,俗稱 AI for Science。
當然,還有一批真正參與「AI模型六小龍」的正規軍投資人,他們每天都在堅定和質疑中搖擺,畢竟字節、阿里、DeepSeek的風頭太強了。
最后還有一批資本市場的場外人員,他們逢人就提兩件事:我有便宜的算力資源,我可以帶着你的產品出海。多年以后,回看這段歷史,*錢的還是這批倒騰算力資源和搞出海的人,因為只有他們才真正抓住了經濟學的基本原理:真正的信息不對稱,才能創造超額收益。
在100個人眼中,看到了100種AI,大家確實麻了。
4
真AI,假AI
過去一年,我們跟同行一樣,刷了大量的科技項目,幾乎每個BP的*頁都赫然寫着AI、智能體等關鍵詞,曾經我們也一度迷茫。AI創業項目在市場的熱度,有點類似於ICU重病患者的心電圖,橫盤一段時間之后,突然跳起,因為國外TOP 3的大模型公司迭代了新版本,並流出了Demo視頻,之后又會漸漸迴歸平靜。
VC投資人疲於在各類科技媒體報道和高校實驗室之間奔波,不斷覆蓋一個又一個熱點,大家甚至都來不及思考,因為幾乎每天都有爆炸性的新聞出來。
這些新聞報道的背后究竟揭示了哪些重要信息?投資人做科技投資,當然需要把握技術發展脈絡,但衝在一線看Paper並不是一個明智的選擇,一方面大部分投資人是很難讀懂晦澀的paper,即便丟給大模型去總結;另一方面讀懂70%的paper跟讀不懂,區別不大,因為可能會忽略到最精髓的部分。不要用自己的熱愛去挑戰在實驗室,用7*24精力去思考算法的AI青年研究員。
所以,AI投資最核心的事,是盡*概率覆蓋圈層對的人,交叉驗證這些人提供的情報脈絡,再順着脈絡找到對的人,然后相信他們,按照風險偏好去下注。
一個投資前輩曾説過,投資人不需要過分研究宏觀/微觀,因為你很容易陷入其中。這就好比如果你想釣到一批大魚,不需要把明尼蘇達的一萬個湖都搞清楚,也不需要把中國經濟、世界經濟都研究透徹。但是要知道哪個湖里有魚,哪里競爭不充分,而你又非常瞭解,然后在那里建立自己的能力圈,這是*投資人的核心能力。
5
AI到底發展到了哪一步
這是一個很難回答的問題,因為你很難判斷當下的熱點是階段性終結還是過程中的產物。不過我們沿着事情的發展脈絡,抽絲剝繭去觀察,就像上面提到的,至少先弄清楚:本輪AI革命,到底在哪些地方真正發揮了作用。
這一代AI,會有很多概念性名詞,從AIGC、AGI,再到最近的ASI。不管媒體怎麼描述,這代AI最顯著的特徵就是生成式,這是有別於以往AI技術的核心思想。
生成式的實現是建立在一篇偉大的paper,那是由Google在2017年提出,題目叫做《Attention Is All You Need》的經典論文。
這代AI中,能產生巨大價值的模型,幾乎都是建立在Transformer的基礎架構之上,這點很重要。
關於這篇論文,過去兩年,無數的文章做了解讀,我就不班門弄斧了。但綜合來説,本篇paper揭示的精髓就是:注意力機制;這個注意力涵蓋了基於全局信息的表示;與以往的CNN、RNN不同,他不做逐層或者逐步地推,而是包含了全部信息要素,主打一個簡單粗暴,大力出奇跡,有點類似中國古代的智慧:無為而治。
值得注意的是,在上面論文署名的8位作者,自2019年開始陸續離開Google,他們要麼創立了自己的AI公司,要麼加入了知名的AI創業公司。但截止到目前為止,他們並不算本輪AI浪潮的頂流創業者。即便最著名的Character.ai,也於2024年被創始人的老東家Google按照2.5倍溢價收購,不過投資人也算賺了錢,*收場。這再次説明,劃時代的一篇研究,並不能保證一家偉大公司的誕生。
那麼,到底什麼樣的創始人畫像,才能在本輪AI競爭中勝出?
要想回答這個問題,必須先搞清本輪AI技術突破到底帶來了哪些價值。我個人認為,本輪AI目前看起來已經確定的只有四個方向,接下來是最精彩的時刻,我們逐層來給大家分解。
1、大語言模型(LLM)-ChatGPT(Open AI為代表)
毫無疑問大語言模型(LLM)是本輪AI浪潮中最耀眼的一顆明珠。它是基於Transformer架構的生成式自迴歸模型,天然適合語言數據序列性。這套體系涵蓋了訓練模型和推理模型。原本只是想在文本語義方面做的一個探索,但沒想到大力出奇跡,把思維鏈也涌現了出來,這個底層的模型基座居然具備了極其強大的邏輯能力,它不但能聊天對話、還可以編程,解題,似乎無所不能,這是*的驚喜之處。
那麼涌現的祕密,究竟是如何探索出來的呢?
關於Open AI,大家熟悉的,可能是上面的鐵三角組合。
但在水面之下,讓技術最終得以實現的,卻是一羣年輕人。
這里必須要提到一個至關重要的年輕人,Alec Radford。他是GPT-1、GPT-2的*作者,是Ilya在演講中感謝過的人,被很多人稱為ChatGPT背后的真正先驅和無名英雄。
2016年,23歲的傳奇AI研究員Alec Radford剛從富蘭克林·歐林工程學院本科畢業,加盟了一家小公司Open AI。這個決定不僅僅改變了他的職業生涯,更為AI的發展掀開了嶄新的一頁。有人説,Radford扮演的角色,如同谷歌創始人拉里佩奇發明了PageRank。
入職OpenAI后,他開啟的*個實驗是,用20億條Reddit評論訓練語言模型,最初是基於IIya sutskever在谷歌研發的Seq2Seq技術,最終以失敗而告終。當時總裁Greg Brockman鼓勵到,沒關係,再試試吧。
但接下來,他選擇了亞馬遜電商平臺評論,嘗試讓語言模型簡單預測,並生成用户評論的下一個字符。
看似平凡的選擇,卻帶來了意外的收穫:模型不僅能預測評論下一個字符,還能自主判斷評論的情感傾向(積極/負面),甚至還能根據要求生成不同風格的評論。
正是這個突破,引起了OpenAI前首席科學家Ilya的注意。2017 年,那篇著名論文《Attention is All You Need》發表之后,Ilya Sutskever 是少數能真正領悟 Transformer 強大之處的先驅。為什麼這麼説呢? 因為Transformer的出現正是擊敗了之前的SOTA模型:Seq2Seq,而IIya正是Seq2Seq的*作者。自此, Alec聽從Ilya 的建議,開始嘗試 Transformer 架構,后來他回憶說,「我在兩周內取得的進展,比過去兩年還要多。」
之后,Ilya跟Alec Radford一起創造了共有1.17億參數的模型,並將其命名為「Generative Pre-trained Transformer」(GPT)。
這個模型在7000本未出版的學習書籍、Quora問答,以及各類考試文章中,展現出了前所未有的語言理解能力。更令人驚艷的是,GPT還具備了零樣本學習的能力,在未經訓練的領域,同樣擁有專業級水平。這種超出預期的能力,讓團隊異常興奮,同時引發了他們對AI方向的深度思考。雖然這個驚喜,在今天看來已不是什麼祕密。
2019年,交易高手Sam Altman完成一項極其重要的交易,從微軟手中籌集到10億美元。
2021年,OpenAI正在構建越來越強大的模型GPT-3,並展現出了新的能力。時任OpenAI研究副總裁Dario Amodei,回憶起2018年或2019年,*次看到GPT-2時感受:我被嚇到了,這太瘋狂了,這在世界上是前所未有的,這種不安在2021年達到了頂點。
之后Dario Amodei與6位OpenAI同事一起離開公司,創辦了Open AI*的競爭對手:Anthropic,旗下最知名的產品就是Claude。
2022年底,OpenAI發佈了ChatGPT,ChatGPT在短短2個月內就達到了1億用户,創下當時最快的用户增長記錄。相比之下,TikTok用9個月,Instagram用2年半才達到同樣用户規模。
ChatGPT實現了從訓練模型到推理模型的飛躍,讓AI實驗變成了一個可交互的應用。這其中還有一件重要的事情,就是在預訓練基礎上,引入了RLHF(Reinforcement Learning from Human Feedback)
RLHF 是一種使用根據人類偏好數據訓練的獎勵模型來完善模型輸出的工作流。常見流程包括:
•監督微調(SFT):首先在高質量數據上訓練或微調基礎語言模型。
•獎勵模型訓練:收集成對的輸出結果,詢問人類更喜歡哪一個,然后訓練一個「獎勵模型」,以接近人類的判斷。
•策略優化:使用類似強化學習的算法(通常為 PPO,即「近端策略優化」)來調整 LLM 的參數,使其產生獎勵模型所喜歡的輸出結果。
ChatGPT在2023年正式開啟商業化。
我們看到,儘管2024年Open AI仍然每年虧損高達50億美金,對你沒看錯。不過對於一個商業化剛滿兩年的科技公司來説,年度取得40億美金的收入,仍然稱得上是一個奇蹟,按照當前的發展進度,最快2028年Open AI可以實現盈虧平衡。需要補充的是,Dario Amodei創辦的Anthropic,在2024年實現了8億美金的年度收入,2025年1月,正在完成交割新一輪融資,估值600億美金。
新的競爭還在繼續。
最后附上紅杉美國對於2025年美國AI大模型的預判:
Sequoia認為行業(美國)內已經到了Finalists階段: OpenAI、Anthropic、Google、Meta and xAI。(是的,美國沒有國內這麼混亂的所謂百模大戰,國內真正的基座大模型一隻手就數過來了)
•Google:Google的優勢在於其垂直整合,包括自己的AI芯片(TPUs)、廣泛的數據中心基礎設施和強大的內部研究團隊。這種對AI價值鏈的端到端控制使Google能夠在多個領域進行積極競爭。
•OpenAI:OpenAI在AI領域建立了強大的品牌,主要得益於ChatGPT的持續火爆。這種品牌認知轉化為強大的收入引擎,使OpenAI在吸引消費者和企業客户方面具有顯著優勢。
•Anthropic:Anthropic的優勢在於其集中了*AI人才,最近已經從OpenAI和其他*機構吸引了關鍵研究人員,為推動創新提供了深厚的專業知識儲備。
•xAI:xAI是一門心思先把數據中心搞起來,先搞幾十萬H100/GB200的卡再説,其快速建設和部署大規模計算基礎設施的能力對於訓練和運行下一代大型AI模型至關重要,Grok據說效果也不錯。
•Meta:Meta選擇通過專注於開源模型來實現差異化,Llama系列模型已獲得大量追隨者,Meta已成為可訪問性和開源社區驅動創新的倡導者。
2024年12月,全球AI頂會NeurIPS ,Ilya登場演講,他回顧了自己過往十年在深度學習領域的經歷,最后向全世界宣告:預訓練結束了!為什麼?這是因為,儘管計算能力正通過更好的硬件、更優的算法和更大的集羣不斷增長,但數據量並沒有增長——我們只有一個互聯網。甚至可以説,數據是AI的化石燃料。它們是以某種方式被創造出來的,而如今,我們已經達到了數據峰值,不可能再有更多數據了。
儘管大語言模型(LLM)橫空出世,感覺無所不能,但他更像是一個高智商的「小鎮做題家」,智商或許很高,但技能還不夠,很多事情仍然做得不夠好,比如:像藝術總監Tony一樣,做出一幅精妙的畫。
2、AI生圖/視頻
提到AI生圖,大家首先會想到擴散模型(Diffusion Model),它是一種先進的機器學習算法,它們通過逐步向數據集中添加噪聲,然后學習如何逆轉這一過程,獨特地生成高質量數據。
其工作原理可以比喻為,畫家先給一幅*的畫塗上亂七八糟的顏色,讓它變成了一張充滿隨機塗鴉的畫布;然后畫家通過一系列精心設計的步驟,逐漸從中清除塗鴉,最終重現出一幅詳細精美的畫作。
在AI的世界里,擴散模型是通過逆轉擴散過程來生成新數據(一幅畫)。
首先,它通過在有序的數據像素中添加隨機噪聲,變成無序的模糊數據像素;這個稱為正向擴散過程。
正向擴散過程
然后再逆運算上述過程,把模糊隨機數據恢復成原始有序的像素數據。利用這個原理反覆訓練,就能生成出逼近創作者意圖的有序像素數據。
反向擴散過程
來自:《2024視覺模型鏖戰:誰在吆喝?誰在賺錢?》
到24年末,視覺生成的頭部玩家在算法架構上都收斂到了DiT(Diffusion Transformer)架構。
Diffusion Transformer(DiT)架構
基於 Transformers架構的 Diffusion 模型設計了一個簡單而通用的基於 Vision Transformer(ViT)的架構(U-ViT),替換了 latent diffusion model 中 U-Net 部分中的卷積神經網絡(CNN),用於 diffusion 模型的圖像生成任務。
Transformer天然支持時序輸入,而且可以並行處理多路輸入,也就是説,在Unet解決不了的問題(時序+多幀輸入),在Transformer(DiT)這邊是比較容易解決的問題。所以越來越多的視頻生成基礎模型框架,會以DiT作為基礎。
OpenAI的Sora背后的關鍵技術就是Diffusion Transformer。
紐約大學計算機科學助理教授謝賽寧(Saining Xie) 於2022年6月開始了催生diffusion transformer的研究項目。謝賽寧(Saining Xie)與他的學生Bill Peebles一起,當時Bill Peebles還在Meta的人工智能研究實驗室實習,不過現在他是Sora@OpenAI的聯合負責人。
鑑於diffusion transformer的想法已經存在了一段時間,為什麼像Sora和Stable Diffusion這樣的項目花了數年時間纔開始利用它們呢?紐約大學計算機科學教授謝賽寧認為,是因為直到最近可擴展骨干模型的重要性才被人們認識到。
還有一件有趣的事情,2024年2月,就在Sora發佈沒多久,有標題黨新聞説謝賽寧是Sora的發明者之一,不過隨后謝本人發了一條朋友圈澄清。謝賽寧也是一位90后,本科畢業於上海交通大學,之后在美國加利福尼亞大學聖迭戈分校完成博士學位。不過通過他的這條朋友圈,也能窺視出國內AI發展的一些問題。
目前主流廠商既沒有看到DiT的天花板,學界也還沒有發明出其他被證實的更好架構。所以,最近半年的競賽基本在算力和數據,算法層面的進展更多是微調。
既然AI可以當好藝術總監Tony,那麼接下來是否有可能當一名科學家呢?
3、AI蛋白質結構預測(AI for Science)
很多人都知道今年的諾貝爾化學獎給了AI,但大都不清楚,他們仨究竟做了什麼。
2024 年諾貝爾化學獎於北京時間 10 月 9 日下午 5 點 45 分揭曉。一半授予 David Baker,以表彰其在「計算蛋白質設計」方面的貢獻;另一半則共同授予 Demis Hassabis和 John M. Jumper,以表彰他們在「蛋白質結構預測」方面的貢獻。
注意:上面三位諾獎得主,其實來自於兩個流派,后面我們會做詳細的説明。
蛋白質是一種分子結構。人體內的DNA提供指令,將單個氨基酸串成長鏈(學術上稱為多肽鏈,一個肽鏈通常包含100-1000個氨基酸),一長串的氨基酸分子會自發摺疊成特定形狀(結構)后,就變成了三維結構的蛋白質,它看起來有點像彈簧,但在人體內就具備了特定的功能。
人體內的蛋白質種類有幾萬種,它們承擔着各種各樣的功能:
比如:血紅蛋白和肌紅蛋白將氧氣運輸到肌肉和全身;
角蛋白可以為頭發、指甲和皮膚提供結構;
胰島素使得葡萄糖進入細胞,轉化為能量;
蛋白質維持了我們人體和細胞的正常運行,它太重要了;絕大多數時候,當一個人不舒服了,都是體內的蛋白質出現了問題。多年來,生物學家和醫藥學家都在研究蛋白質的運作機理,試圖找到背后的奧祕。
蛋白質的3D形狀(結構)決定了它的功能。一維信息的肽鏈如何正確摺疊成特定的三維形狀,這被稱為蛋白質摺疊問題。
當我們在研究一種類型的蛋白質時,得到它序列(一維信息)的難度,要遠遠低於得到它的結構形狀(三維信息)。
早在20世紀50年代,生物化學家 Christian Anfinsen取得了一個重要發現,並因此而獲得了諾貝爾獎,那就是:蛋白質的三維結構是由它的氨基酸排列順序決定的。
到了20世紀60年代,劍橋大學的兩位生物學家 Max Perutz 和 John Kendrew 將蛋白質培育成晶體,用 X 射線轟擊它們,並測量射線的彎曲情況——這種技術稱為 X 射線晶體學。他們用這種方法,確定了血紅蛋白和肌紅蛋白的三維結構,人們首次獲得了蛋白質結構,他們二人也因此獲得了諾貝爾獎。
通常情況下,一名生物化學專業的博士生,花費4-5年的時間,就爲了能研究出某類新的蛋白質結晶,從而確定其三維摺疊結構。
隨着更多蛋白質結構的發現,蛋白質科學界需要一種機制來研究和共享它們。1971 年,蛋白質資料庫(Protein Data Bank)成立,包含了已探明的蛋白質結構,該數據庫可免費使用。蛋白質資料庫剛剛建立時,僅包含7種蛋白質的結構;50 年后,到 Google DeepMind 用它來訓練 AlphaFold2 時,已超過 14 萬個蛋白質結構——這背后是每一個結構生物學家辛苦解碼得到的。
但這個速度實在太慢了。
與實驗主義者不同,計算生物學家試圖編寫計算機算法,他們夢想着有一天,向一個軟件輸入一串氨基酸序列,就能輸出正確的蛋白質結構。
所有人都在想,我們能否從最基本的信息:蛋白質分子的一維編碼序列(氨基酸排列),準確預測出蛋白質分子的三維形狀?
John Moult 就是其中的一位。1970年在取得了牛津大學分子生物物理學博士之后,他厭倦了實驗主義者的方法,開始轉向蛋白質計算領域。多年后,John Moult等人創立了結構預測關鍵評估(CASP)實驗,用實驗確定的蛋白質結構來檢驗他們的蛋白質計算機模型。沒錯,這個CAPS跟大名鼎鼎的CVPR(國際計算機視覺與模式識別會議)一樣出名,如今也走過了30年。
作為 CASP 的組織者,Moult 和 Fidelis 會發布一份蛋白質氨基酸序列列表,這些蛋白質的結構已由實驗主義者探明,但結果尚未發表。然后,世界各地的計算團隊會盡力使用他們的模型來預測這些蛋白質的結構。一個獨立的科學家小組會對比計算的答案和實驗驗證的結構來評估這些模型,聽起來就是一場比武切磋。
1998 年,第三屆CASP比賽,一個名叫 David Baker 的年輕人憑藉他的算法 Rosetta 大放異彩,它的算法可以模擬氨基酸分子原子之間的相互作用,從而預測它們如何摺疊。它們「表明你確實可以預測蛋白質結構,但它不夠好或不夠準確,無法實用。」
2010之后,一個被稱為協同進化(co-evolution)的概念被提出,后來證明對人工智能至關重要。通過比較數百/數千種密切相關的氨基酸序列,科學家可以識別出發生突變的氨基酸;但更重要的是,如果兩個氨基酸同時發生了突變,那麼它們之間很可能存在某種聯繫,是的,這兩個東西在空間上可能靠得很近。
上圖中白色的球代表一條肽鏈中的兩個氨基酸,他們在同一時期發生了突變,説明在三維空間上,它們倆就離得很近。2014 年,David Baker的算法建立在這一成功之上,Rosetta 生成了兩個蛋白質結構,其準確性讓一位 CASP 評估者認為 David Baker可能已經解決了蛋白質摺疊問題,但似乎做得還不夠好。
2017 年,Jumper 聽説 Google DeepMind 正在涉足蛋白質結構預測,利用機器學習模擬蛋白質摺疊和動力學。當時他剛完成芝加哥大學理論化學博士學位,就申請了一份研究科學家的工作,當年他才30歲出頭。
「當時Alpha fold這個項目還是一個祕密。爲了訓練他們的算法,DeepMind 團隊使用了蛋白質資料庫中的超過 14 萬多個結構。他們將這些信息輸入卷積網絡,但並沒有對人工智能架構本身做太多改變,這是「標準的機器學習」。2018年,Alpha fold這個項目以 Google DeepMind 的名義提交結果,最終他們取得了*名,但他們並沒有取得壓倒性的勝利。
后來Deepmind的創始人Hassabis,找到了John Jumper他們,並對他們説:「我們要不要全力解決這個問題?」注:Deepmind這家公司在2014年被Google收購,旗下的Alpha Go因戰勝圍棋世界冠軍李世石而一戰成名,2023年推出大語言模型Gemini。
憑藉在物理、化學、生物和計算方面的多元化背景, Jumper在頭腦風暴會議上提出了一些獨特的見解;很快他開始領導團隊,從 6 人發展到 15 人。在 DeepMind,統計學、結構生物學、計算化學、軟件工程等領域的專家們共同解決蛋白質摺疊問題。他們背后還擁有谷歌龐大的資金和計算資源。在 Jumper 的領導下,AlphaFold 被重新構建。DeepMind 設計了一種新型的 Transformer 架構——這個架構在過去五年中「幾乎推動了每一個機器學習領域的突破」。
2020 年 12 月,第十四屆CASP召開。每隔兩年,來自全球的科學家們都會聚集在阿西洛馬會議中心,這是一個位於加利福尼亞蒙特雷附近的古老教堂,他們中的許多人,窮極一生,只為在蛋白質結構預測上取得一點點進步。
每屆的比賽只是帶來微小的進步,人們當時沒有理由認為 2020 年會有什麼不同。
蛋白質科學界的新秀 John Jumper 展示了一種新的人工智能工具 AlphaFold2。在 Zoom 會議上,他提交的數據顯示,AlphaFold2 的三維蛋白質結構預測模型準確率超過 90%,比最接近的競爭對手高出五倍。
就在 DeepMind於 Nature上發表 AlphaFold2 的同一天,David Baker和他的團隊發佈了 RoseTTAFold,這也被認為是AlphaFold *的競爭對手。RoseTTAFold 也使用深度學習來預測蛋白質結構,但其底層架構與 AlphaFold2 非常不同。
2024 年春天,John Jumper和David Baker 都各自更新了研究成果,分別推出了:AlphaFold3 和 RoseTTAFold All-Atom ,通過模擬蛋白質與其他分子(如 DNA 或 RNA)結合的結構,把蛋白質的研究推向了新的高度。
不過目前為止,AlphaFold3 比 RoseTTAFold All-Atom 要準確得多。AlphaFold 3,擁有更強生成式AI模型能力,核心是引入擴散模型,採用Transformer+Diffusion,效果得到全面提升。與現有預測方法相比,AlphaFold 3改進至少50%,可準確預測蛋白質、DNA、RNA和配體(與受體蛋白結合的任何分子)等結構以及如何相互作用,有望幫助人們治療癌症、免疫性疾病。
2024年3月,David Baker旗下的新公司Xaira Therapeutics也獲得了新一輪融資。
正是因為David Baker和John M. Jumper在蛋白質計算領域取得的不斷突破,他們共同獲得2024年的諾貝爾化學獎,值得注意的一點是:John M. Jumper此時只有39歲。
不過,他們倆的競爭仍在繼續。
很多人説,科學家的盡頭是玄學,我覺得不完全準確,也有可能是個司機。
4、Tesla FSD
FSD,全稱Full-Self Driving,它是特斯拉的全自動駕駛系統。2024年,它的V12新版本正式向社會開放,這也被稱為自動駕駛領域真正「端到端」的新範式。僅需8個攝像頭,無需用上激光雷達、毫米波雷達、超聲波攝像頭等等其他零部件,就可以實現老司機一般的駕駛能力。
我們先看看當下市場上傳統的智能駕駛方案。它們是基於Rule-Base方案:將自動駕駛分為幾個步驟,分別是感知、規劃、控制。先通過攝像頭、激光雷達、毫米波雷達等傳感器獲取信息,然后基於感知結果和人為設定的規則,由自動駕駛軟件代碼來實現決策。
但是日常出現的駕駛情況太多了,並且還會有不常見的邊緣案例(corner case)出現。它們往往非常危險,因為在算法庫里,可能沒有編好這種情況下的應對方案。此外,在100種不同的駕駛場景中,你可能需要100種不同的踩剎車和加速的方法,才能達到平滑的駕駛效果,否則就很容易暈車。這就是傳統方法存在的侷限性。
2020 年 8 月,馬斯克在推特上發文稱,Autopilot 團隊正對軟件的底層代碼進行重寫和深度神經網絡重構。2021年與2022年特斯拉AI Day 上 AP 團隊陸續披露了相關重大突破與進展,其中主要包括:
1)2020 年數據由人工標註轉向自動標註
2)2021 年引入 BEV(鳥瞰圖)+Transformer 大 模型;兩者的結合幫助特斯拉完成了將八個攝像頭捕捉到的2維平面圖片轉換為3D向量空間的工作(也可以由激光雷達完成,但激光雷達的成本要遠遠高於攝像頭),也解決了自動駕駛車輛對高精地圖依賴的問題
3)2021 年引入時序數據;引入時序數據后,FSD 算法將使用視頻片段,而不是圖像來訓練神經網絡, 因此可以通過先前時間段的數據特徵推算當前場景下可能性*的結果
4)2022 年引入Occupancy Network(佔用網絡技術);Occupancy僅通過體素(3D 圖像體素對應 2D 圖像像素點)概念判斷空間是否被佔用,而並不去識別障礙物是什麼。這就顯著增強了 FSD 的感知泛化能力。Occupancy Network也是通過Transformer來實現的,最終輸出Occupancy Volume(物體所佔據的體積)和Occupancy flow(時間流),也就是附近的物體佔據了多大的體積,而時間流則是通過光流法來判斷的。
5.)2022 年發佈超級計算機 Dojo。2022 年特斯拉發佈超級計算機 Dojo,其主要功能是利用海量的數據,做無人監管的自動標註和仿真訓練。
下面內容是【經緯研究】馬斯克「掀桌子」講V12*的變化,在於部署了「端到端」的AI大模型。
這里面有兩大關鍵點,一個是端到端,一個是AI大模型。
「端到端」簡單的理解是,一端指輸入端,一端指輸出端,輸入數據的包括攝像頭的感知數據、車身的數據等等,中間通過Transformer架構的AI大模型推演之后,最終直接輸出對於真實世界的理解並操控電機、剎車、方向盤。
而FSD的V12版本不再需要通過代碼寫好「遇到紅燈需要停下」,而是通過讓AI觀看大量人類駕駛員的駕駛視頻,讓AI自己找出成千上萬條規律,遇到紅綠燈、減速、剎車這是AI自己學會的,是自己「悟」出來的。正是因為這樣的一個轉變,原來負責這一塊的30萬行C++代碼,如今變成了3000行。這也是為什麼V12版本中,FSD的駕駛表現非常擬人化。
V12跟ChatGPT這樣的大模型很像,都是一個「黑盒模型」,它們需要通過足夠多的數據訓練,才能涌現出一些驚人的能力,並且設計它的工程師也不知道,為什麼會涌現出這些能力。端到端的智駕水平主要由三大因素決定:海量的高質量行車數據、大規模的算力儲備、端到端模型本身。與ChatGPT類似,端到端自動駕駛也遵循着海量數據(維權)×大算力的暴力美學,在這種暴力輸入的加持下,可能突然涌現出令人驚艷的表現。
此外,如果訓練所用的視頻數據本身質量存在問題,甚至是非正常駕駛數據,那是不是訓練出來的AI駕駛員就會非常危險?答案確實是。在美國,特斯拉通過北美的保險業務,延伸出了一套駕駛員行為評分系統,它會對人類駕駛員的駕駛行為嚴格打分。特斯拉用於訓練FSD的數據,全部來自於90分以上的駕駛員,可以説是對數據的要求極為苛刻。
2024年上半年,Tesla FSD用户累計行駛里程已超過10億英里
馬斯克此前表示,60億英里是FSD實現質變的重要節點。只有推理得夠多,才能知道如何對模型進行微調和優化,在自動駕駛領域重現大語言模型中Scaling law的情況,實現指數級的能力增長。如馬斯克所言:當你有100萬個視頻片段,勉強夠用;200萬個,稍好一些;300 萬個,就會感覺哇塞;1000萬個,將變得難以置信!
2024年開始特斯拉把總算力又提高了,等同於3.5萬塊英偉達H100的算力,到年底還要翻倍達到8.5萬塊算力規模,這令特斯拉成為美國擁有*流算力規模的科技公司,與微軟、Meta相當。
6
本輪AI變革,對於VC投資的啟示
上面提到的四個方向,無疑都是本輪生成式AI的成功體現,也都產生了巨大的商業價值。我們在拆解的過程中,發現了一些有趣的東西,這對於VC投資還是有很強的借鑑意義
1、本輪AI技術迭代,都是建立在Transformer的基礎之上,這個架構的核心就是:用全局觀的思路,暴力尋找複雜事情背后的關係,同時做出*概率的預測。有時我們自己也在覆盤,人生又何嘗不是一場真人世界的概率模擬器呢?投資的勝率,又何嘗不是一個良好概率模型的體現呢?所以,好的投資,還是有章可循,前提是按照概率下注。這對於當下的國資投資也有很強的借鑑性,那就是:
- 做事要從全局思路出發,算總賬
-暴力出奇跡,要給出足夠的資金(能不能給出來另當別論)
- 概率遊戲,就要給投資留出足夠的容錯率
2、技術實現躍遷,並不是憑空而生或者一蹴而就的;都是依靠前人的技術積累不斷迭代,當量變達到臨界點,在對的時間就會引起質變,而且這個過程是遵循邏輯的。
Open AI走到GPT(Generative Pre-trained Transformer)這條路,也是經歷了CNN、Seq2Seq不斷試錯,最后找到了Transformer。
Alpha fold項目能夠橫空出世,從早期實驗學家使用 X 射線晶體學解析蛋白質結構,到計算生物學家嘗試通過算法預測結構,再到協同進化觀點的提出,還有過去40年眾多生物化學家辛苦實驗得到的十幾萬的蛋白質結構數據庫,這些不斷探索試錯,最后才帶來顛覆性的創新。
Tesla FSD實現端到端的突破,是從最初的神經網絡HydraNet(九頭蛇算法)開始,不斷迭代改進,逐漸走上Transformer架構,后期借鑑大語言模型思路,一步步走到今天的無人駕駛環節。
3、自古英雄出少年
回顧這代生成式AI的發展路徑,重大技術節點的突破,最終都是依靠年輕人。
Alec Radford發佈初代GPT也只有25歲;
謝賽寧2022年開啟diffusion transformer的研究項目時,30歲出頭;
John Jumper跟團隊發佈Alpha fold2時,當年35歲,四年后獲得了諾貝爾化學獎;
即使Sam Altman和IIya sutskever這樣的頂流人物,在ChatGPT發佈的時候也只有37歲,7年前的一場聚會,他倆因AI走到一起,開啟了一段偉大的AGI探索之旅,當時他倆纔剛過30歲。
這代AI的變革,是由一羣年輕人推動的。
回顧國內市場,我們也可以看到青春的力量。
據《*財經》雜誌統計,字節目前正常運營的AI應用有大約20款,其中絕大部分是在2024年以后發佈的。而在模型層,2023年只正式發佈了語言模型的字節,在2024年相繼補全了圖像、語音、音樂、視頻、3D等不同模態的生成式AI模型。在這一輪生成式AI浪潮中起步最晚的字節,已經成為目前擁有最全生成式AI模型、最多AI應用的技術公司。
但字節曾是「迟鈍」的。
之前新皮層寫了一篇《字節重建AI核心》的文章,里面提到CEO梁汝波在2024年初的全員會上反思道,公司「直到2023年纔開始討論GPT,而業內做得比較好的大模型創業公司都是在2018年至2021年創立的」。
其實早在2016年,張一鳴就在公司內建立了AI Lab,力邀業內多位AI專家和科學家加入。但后來隨着核心團隊成員的離開,字節AI Lab體系開始被進一步弱化和拆分,之后在2023年緊急成立Seed團隊,某種程度上承擔了AI Lab最初成立時被賦予的角色。
如今Seed團隊的人數應該已經超過了150人,這還僅僅只是字節研發基礎模型的團隊。2023年年底,字節又成立了一個名為Flow的團隊,負責基於大模型的AI原生應用的研發,豆包就是其成果之一,目前有近300人。
字節AI的后來居上,歸功於「實際1號位」張一鳴對AI的重視,80后正值壯年的他,組織了一批最精干的人。
每一代科技巨頭的成長,都是處在壯年的1號位,挖掘了一批*才華的年輕人。字節在AI方向的追趕,像極了十多年前的那個騰訊,當時「小馬哥」親臨一線,指導移動社交這場戰役。
對於*爆發性的科技行業,年齡是很大的優勢,牛逼的年輕人是推動創新的關鍵。所以這輪AI投資,跟對年輕人是VC投資最重要的事。每當技術的拐點逼近,少數最*的年輕人總是最快發現。*&牛人的馬太效用,在AI時代得到了淋漓盡致的體現。對於牌桌上的投資人,只能不斷覆蓋、跟隨最前沿的一批年輕技術天才,然后,就是相信他們。
4、本輪AI創新的競爭優勢,都是在毫無祕密的大力出奇跡基礎之上,加上了精妙的獨特設計。我喜歡把它稱為:心有猛虎,細嗅薔薇。
Open AI 在推出ChatGPT的過程中,首先Ilya不斷糾偏自己的認知,當Transformer擊敗了他的作品Seq2Seq,他*意識到了巨大的變化,發現是AI範式變了。之后團隊引入了RLHF,才讓ChatGPT這個神奇的智能體橫空出世。
文生圖片/視頻模型能夠加速持續迭代,首先是找到了以擴散模型為基礎的算法,之后又引入Transformer。
Alpha fold進行蛋白質結構預測的時候,是引入了協同進化(co-evolution)的原理
Tesla FSD在訓練的時候,堅定地只引入攝像頭提供的視覺數據,保證了輸入源頭的簡潔統一;后期延伸出了駕駛員打分系統,很多訓練數據來自90分以上的駕駛員
當然,細節還有很多,這些其實都是每家AI公司核心的技術壁壘,他們之所以能在本輪AI找到創新突破,本質是在大家熟知的公理之上,找到了獨特的技術卡點。
5、本輪幾個AI方向之所以取得顯著成效,都是下沉到微觀層面尋找規律
大語言模型是在,字母/文字/符號(一維),詞組(二維),句子/段落(三維)之間尋找關聯
擴散模型+Transformer生圖/生視頻是在,像素(一維)、圖片(二維)、視頻(三維)之間尋找關聯
Alpha fold是在,氨基酸(一維)多肽鏈氨基酸排序&彎曲(二維)、蛋白質摺疊結構(三維)、蛋白質跟DNA/RNA抱團結合(四維)之間尋找關聯
Tesla FSD是在,圖片(一維)、合成鳥瞰圖(二維)、終端信號控制(三維)之間尋找關聯
它們都是在遵循*性原理,從微觀的基本層面,學習事物背后的規律。
回顧過去一年,我們團隊聊的很多AI項目,絕大多數都沒有從*層的微觀層面去尋找規律,乾的其實是所謂「中醫」的活(當然,中醫偶爾也起到些作用)。
比如一些工業+AI、醫療+AI的項目,拿到的數據是混亂繁雜的。數據有文字、有圖片也有視頻,如果這些數據跟最終生成的結果並沒有從低維到高維映射關係,那麼盲目地、暴力地去做訓練,效果一定是不明顯的,甚至是災難性的。即使在偶爾的幾個地方得到顯著性效果,一旦遷移場景,效果又不行了。
更何況市面上,很多號稱AI的項目,根本用不到什麼算力,背后的有效數據更是少得可憐,連暴力出奇跡的基本條件都不具備。
所以,市面上大量的AI項目,在我們眼中都是:假的AI項目。
我再舉個有趣的例子。曾經很多朋友跟我説:阿矛,是否考慮過用AI來變革VC投資?
先不説用AI來指導VC投資是否有效,我們先看看AI投資訓練用的數據和*性原理。
你把過往多年成千上萬的BP收集到,然后餵給模型,做一個初始訓練;當然數據量其實也不會太大。因為過去二十年,最終跑出來的項目都是探明的,即使有些項目沒有IPO但也給不同輪次的投資人賺了錢,這樣就有了基本評估標準。然后還可以加入賽道、創始團隊成員、經營業績、項目每輪估值、融資金額等數據要素,繼續訓練。按照這樣的方法做AI訓練,其實就是「中醫」模式;結果一定是失敗的。
其實,當你把一個新的BP丟給足夠「聰明」的AI決策系統時,最明智回答就是四個字:「不要投資」。因為創業能成功,本身就是一件概率極低的事,所以拒絕投資,是AI最明智的選擇;更何況現在已經是2025年了,在這個大環境下,不投資一個項目,極大概率都是對的。但遺憾的是:這個明智的選擇卻毫無價值……
有價值的投資決策其實也很朴素,就是*可能地覆蓋主流圈里對的創業者,然后按照概率下注。
做了這麼多年投資,我慢慢領悟到,對於創業這件事,超級個體確實是最重要的;所謂的風口、趨勢、資本,其實都是催化劑,他們只能起到加速作用,但不參與實際的化學反應。只不過有的科技範式和資本周期需要老司機,有的周期需要小天才,僅此而已。
如果真要用AI指導VC投資,最核心的微觀元素是從研究超級個體開始,然后團隊-組織,再到集團,這纔是從低維到高維的映射關係。
所以真正牛逼的投資人,都在研究:人的綜合素質、團隊戰術、組織文化、集團戰略。講到這,我突然覺得閉環了。
但是如何覆蓋到並投得進主流圈層,AI是無法幫助實現的,只能靠人類本身完成,這也是VC機構的核心技能。
6、我們也看到了一個殘酷的現實
2017年,《Attention Is All You Need》這篇劃時代的Paper打開了本輪生成式AI變革的潘多拉魔盒,但可惜的是,這八位作者,都不是本輪AI最耀眼的頂流。這就好比多年前,互聯網浪潮誕生了一批全球最*的科技企業家,但時至今日,誰又會記起萬維網(www)的發明人呢?有的時候,把一個技術用好比發現一個技術更重要。
在今年的 NeurIPS 2024 大會上,硅谷最著名的 VC 之一 Conviction Capital 創始人 Sarah Guo 和合夥人 Pranav Reddy 做了一場 「AI 創業公司的現狀(The State of AI Startups)」的分享
上圖是Conviction Capital列出的全球2024年收入超過1000萬美金的AI應用公司;當然這里面沒有包括大模型公司和機器人公司,其實真正能實現規模化收入的AI公司並不多。
One more thing
曾經在數字化時代,我們總結了經典的二元論,這個二元論是爲了回答一個被問了無數遍的問題,那就是:到底什麼是數字化?
我們覺得任何事物,能被稱為數字化,一定要具備以下兩點:
在智能化的今天,我們每天都在接觸大量的AI項目,我們對於AI也有一個簡單的概括:
1、是否用到算力資源?因為一旦用到了算力資源,就會涉及到神經網絡,只不過參數有大小之分
2、AI用數據生成答案的過程,是否是從微觀底層出發;數據與生成的內容是否存在從低維到高維的映射
3、生成式AI的結果要麼涉及到決策/洞見,要麼涉及到任務執行。那麼問題來了:目前AI解決的是命中率的問題,還是暴擊率的問題?
命中率的問題,有點類似於科學家的創新性發現。只要能把較低的概率稍作提高,就會產生很大的商業價值。因為很多領域,僅依靠傳統方式或者人腦已經無法完成,所以,死馬當活馬醫,不如嘗試AI。
暴擊率的問題,可以看做是把普通的事務性工作效率成倍提升,最終簡單重複的工作實現機器對人的替代。
未來十多年,這麼多旺盛的年輕生產力,該如何消化吸收呢?
4、算力和高智力投入帶來的收益,是否可以覆蓋之前的投入成本?收益和成本的剪刀差,既可以通過建立新模型、不斷微調帶來,也可以通過真實世界的優質數據飛輪帶來。
除此之外,很多項目都是披着AI智能化的外衣,把老故事又講了一遍。各位朋友不妨把自己過去一年「刷過」的AI項目拿出來覆盤,也許會有新的體會。
2024年我們內部的投資決策也不斷微調迭代,以適應新環境的變化。
但,依然會有很多被打臉的時,比如下圖
責任心和初心是做好投資的重要前提。
同樣一個項目,對於老員工,如果IC投委會的態度不明確,自己又從項目那邊撈不到什麼私人好處,可能最后就放棄了
但對於年輕人,哪怕IC投委會否決了,他真有可能自己出錢投了,因為他是真得看好這個項目。
近期正好讀了XVC的《致投資人的信2024》,其中有一段我覺得非常棒,值得每一個投資機構去思考。下面這段是XVC的HR對過去兩年投資崗人才招聘的覆盤。
HR對於「誠實」的概括是非常精準和專業的。我讀完之后,突然頓悟昇華了;最近一次有這樣的感覺,還是老領導向我表達自己對於「容錯率問題」的看法。
不管資本市場多麼沉寂,不管AI的市場多麼喧囂火爆,在這背后總有一羣無名的人,用純粹、本分堅守,默默地創造價值,創造奇蹟。
過去幾年VC的創業經歷,讓我*堅信的就是:相信年輕人,向年輕人學習,無論是年輕的創業者還是投資小夥伴。
接下來,我們依然按照自己的節奏,每年穩定出手,支持早期科技企業,支持年輕人,當然我們會花更多的時間在AI方向,希望能跟大家相互探討,一起進步。
自古英雄出少年
致敬每一位默默付出,無名的人
2025,我們依然在路上……
【本文由投資界合作伙伴微信公眾號:常壘資本授權發佈,本平臺僅提供信息存儲服務。】如有任何疑問,請聯繫(editor@zero2ipo.com.cn)投資界處理。