繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

給大模型一張真實的「臉」,四位AI+硬件創業者展望2025

2025-01-13 11:24

訪談 | 蘇建勛

文 | 王方玉

編輯 | 蘇建勛

如果説2024年的CES上,AI更多是作為獨立亮點被少數企業展示;今年的CES 2025,AI與消費電子產業的融入更加廣泛和深入,恰如這屆CES的主題「Dive In(沉浸)」。

以智能眼鏡產品為例,本屆CES上,從 Rokid、雷鳥、Xreal、INMO 等 AR 廠商,到星紀魅族、雷神科技、大朋等跨界選手,再到 Haliday、Vuzix 等新創公司,中國廠商們在萬里之外的美國,上演了一場「AI百鏡大戰」。

在CES展會現場,《智能涌現》發現,從無弦吉他、AI面膜,到戒指、柺杖、AI自行車……生活中的各類硬件產品,都成了AI大模型落地終端的新「面孔」。更不用提早就擁抱大模型的各類消費電子——從AI眼鏡、AI耳機到AI陪伴機器人,再到AI PC、手機和學習機等等。

CES本屆主題「DIVE IN」;拍攝:蘇建勛

AI,在這場消費電子行業的「春晚」中,無處不在;但熱烈的表象背后,AI硬件行業更需要深入的「冷思考」:

從「用上AI」到「用好AI」,硬件廠商們還要跨過幾座山?當產品搭載AI大模型不再稀奇,AI還能否給產品帶來賣點和溢價?AI大模型不斷迭代,被賦能的智能硬件能跟上步伐嗎?

更有智能硬件廠商創始人對《智能涌現》發出靈魂拷問:當一個賽道的大部分玩家都用上了AI,是不是從側面説明這件事門檻太低了?

在CES 2025現場,《智能涌現》採訪了四家積極擁抱AI大模型的智能硬件廠商,分別是未來智能(AI耳機)、學而思(AI學習機)、李未可(AI眼鏡)、INAIR(AR眼鏡),他們分享了現階段在各自細分領域應用AI大模型的實踐、探索和挑戰。

學而思CTO田密:中國用户很難為AI軟件買單,軟硬件結合是更好的方式

1.現在中國的智能硬件行業,還沒有廠商能真正地把端側大模型放到產品線上,都是跑在雲端的。因為現在中國的端側芯片不成熟,還跑不起大模型來。

2.但未來2-3年,我預測會有一些簡單的大模型,可以在端側運行,剩下的複雜運算再依靠雲端。

3.我們在學而思的硬件產品上落地大模型纔不到一年,之前的兩年時間都在探索。我們發現AI軟件在中國很難單獨落地,中國用户是不會為一個APP買單的,他們覺得AI技術不值錢。

軟硬件結合,是消費者能感覺到的一個很好的方式。我們把各種AI功能放到了學而思的學習機上,用户實際數據證明,使用頻次最多的就是各種AI應用,如AI批改、AI講題,還有跟智能助手「小思」互動。

學而思的AI學習機來源:企業授權

4.最開始的時候我們希望自己從零開始訓練一個自己的大模型,但訓了一段時間發現越來越多更好的開源基座模型出來了,自己做預訓練其實是非常不划算的。后來我們就在全球最好的多個開源大模型基座上,加了很多教育領域的專用知識進行再訓練。

我們的做法是,砍掉了通用知識的預訓練,但其他的一步都沒省,包括專業知識的預訓練、微調和強化學習都是一直在進行。

5.和以前的AI模型相比,大模型給學而思的產品能力帶來很大提升,主要體現在兩點,一是工作(如AI批改)的準確性大幅提升,性能更好更強了;另一個是原來不能做的任務現在能做了。

6.大模型的持續訓練和強化學習技術難度很高,需要很聰明的人才在不斷的實驗中去探索嘗試。這個領域需要人才既懂算法,又能做工程化,他的research和development都要強。

7.同樣是接入學而思的模型能力,硬件形態對於用户的接受度很重要,比如學習機就比手機更方便用户學習。我們現在既有獨立APP,也有學習機。目前國內有非常多的廠家,包括手機廠商、Pad廠商、PC廠商,還有眼鏡廠商都在接學而思的API。

未來智能CTO王松:大模型在朝兩個方向發展,一個是基座,一個是端側

1.未來穿戴式設備將是一個所謂的AI agent,可以時時刻刻陪伴用户,而不用像手機一樣必須拿在手里。它具備多種傳感器,可以做用户的眼睛或者耳朵,去感知周圍的環境,並給予用户反饋。 

2.目前未來智能迭代的重點在往個性化的方向努力。我們把用户的會議內容里有用的信息給結構化抽取出來,通過數據庫或者RAG的形式存起來,從而形成大模型的長期記憶。這一塊的記憶最終會關聯到用户的個人助理上,個人助理會根據用户個人的偏好,生成一些個性化的、符合偏好的答案。 

3.AI眼鏡現在可以跑一些算力,比如Ray-Ban Meta上就搭載了一些本地模型,可以通過SOC芯片實時運算。但AI耳機因為SOC算力不夠,所以用的還是雲端算力。現在我們看到的所有市面上號稱智能耳機的,差不多都是靠雲端的算力。

4.算力部署在端側的話,大模型響應更快更及時,也更加安全。很多用户關心數據隱私,比如一些投資人開的會議可能非常敏感,不想讓數據上傳雲端。未來智能的AI耳機提供了這個功能選項,用户的數據可以不上雲,就存在耳機或者手機里。

未來智能的AI耳機來源:企業授權

5.AI大模型目前在朝兩個方向發展,一個是基座大模型,它的參數和數據量越來越大;另外一個方向就是端側,它的效率越來越高,安全性、數據安全等也有保障。這是兩個方向,其實並不衝突。 

6.AI能力的迭代或者進步進化,對穿戴式設備未來的影響其實是非常大的。我預計五年之后,耳機上應該也可以跑一些本地AI大模型。一旦到那個程度,耳機就可以作為獨立設備使用,很多交互場景就不用依賴於手機。這對用户交互層面的一些體驗會帶來質的變化。 

7.目前能通過接入大模型來實現高溢價的AI硬件,還比較少。這背后涉及到一個行業的發展階段的問題。現階段來講,其實所謂的智能耳機,都是依賴於手機端的軟件來實現的。我覺得可能要發展到一定程度,耳機本地就能跑一些端側模型,才能真正達到所謂的智能耳機。 

要實現真正的「智能耳機」,目前主要有兩個卡點,都是在硬件上面,一個是SOC芯片的算力,耳機的算力芯片既要體積小,又要算力強,很難實現;另一個是電池續航問題,把SOC芯片塞到耳機里,功耗會很高,續航時間很短,用户很難接受。

李未可創始人茹憶:AI眼鏡應用開發成本遠低於XR生態,不會走XR老路

1.我認為人類獲取信息信息密度最大的還是通過眼睛,所以我的直覺是,AI眼鏡是離眼睛最近的消費載體之一,是承載語音交互這個交談式AI最佳的載體。

2.搭載在AI眼鏡上的殺手級應用,未來兩年肯定會出現,這是李未可必須要做的事。否則AI眼鏡就變成了一個單純的「殼」,價值不大。

3.2021年我創立李未可的時候有一個判斷:接下去的三年,AI會有一個爆發式的增長。但沒想到這麼快,2022年底就已經開始了,超出預期。所以2023年春天我們就做了一個選擇——All in AI大模型。

在產品設計的時候,我們一直在堅定做的兩件事,一個是要把AI交互做好,第二個是把人格化做好,實現千人千面。

當然,我們更看重的是,我們自建整個大模型體系,它是完整的,而且我們可以不斷去迭代。而不是説把東西交給第三方模型公司,自己完全沒有辦法掌控。

李未可的AI眼鏡來源:企業授權

4.AI大模型在網頁上提供信息整合的很好,但如果直接接入到眼鏡里效果不好,它需要一個融合的過程。

比如我問AI眼鏡今天天氣怎麼樣,AI大模型不會直接回答,而是問你在什麼位置?所以AI眼鏡要有好的體驗,必須對搭載的AI大模型進行優化和調整。

5.對於我們AI眼鏡的創業公司來説,做大模型相關的事情其實並不需要僱傭很多人。我們整個打模型團隊可能就十來個人,但是我們可以站在巨人的肩膀上去微調和優化。

6.不光是智能眼鏡,任何一個行業走到今天這個階段,都會產生激烈競爭。沒有競爭的市場不繁榮,競爭是必要的,可以共同教育市場,更快地向消費端做滲透。前幾年智能市場競爭少的時候,教育市場的成本太高。

7.過去XR生態不太成熟,導致銷量不好,很大程度是因為生態不夠完善、應用開發成本太高。AI眼鏡不會走這個老路,因為它的開發成本遠低於XR生態。如果能找到一個合適的場景的話,有可能一兩個開發者就能把agent做出來。

INAIR產品設計負責人齊靜軒:未來AI Agent本身會獨立成為一個OS

1.從有操作系統以來,大家都會想有電腦里面會有一個像「小助手」的東西,去幫助你解決很多事。但是在以往過程中,包括siri、小愛同學或者是Google Assistant,其實都沒有做得太好,大多數情況都是失效。因為用户不清楚AI對話的邊界能力究竟在哪。大模型的出現改變了這件事,它讓所有的問題都有了底兜,讓所有談話都能進行下去。

2.2022年底ChatGPT剛爆發,我們就意識到了這種趨勢,在INAIR的產品中加入AI大模型一開始就在我們的計劃中了。

INAIR應用大模型和目前市面上大多數AI眼鏡、AI硬件不一樣,它們的AI主要功能是幫助用户理解外部世界。INAIR主要是幫助用户更高效的解決軟件和系統操作層面的問題。

3.對於INAIR來説,產品用上大模型和微軟Windows PC用上Copilot差不多,都是作為一個重要的賣點。大模型可以更好地解決用户體驗問題,給用户更自然的交互和更快、更方便的體驗。

4.INAIR合作的AI大模型很多,我們發現不同大模型擅長的東西不一樣,比如説豆包可能對圖片的理解能力會比較強,訊飛在ASR(語音識別)交互上能力特別強。INAIR會在不同的場景調用不同的大模型。

INAIR的AR眼鏡來源:企業授權

5.INAIR的產品優勢在於軟硬件一體。在軟硬件一體的環境中,AI多模態可以實現從感知預測到交互、交流在到執行的閉環。

這也是INAIR產品的優勢。比如,用户可以一邊看一篇英文的論文,一邊實時把中文翻譯呈現在眼鏡屏幕上,或者直接語音問agent這篇論文的中文概要是什麼。再比如在看電影的時候,可以就畫面里的人物或者物體直接問agent問題。這都是要系統層面的類siri角色才能實現的功能,它可以靈活調用不同的應用程序。

以上這些操作,單純靠軟件也可以實現,但需要點擊鼠標、複製粘貼、切換不同APP頁面,操作要繁瑣很多,這就是軟硬一體和純軟件的差異。

6.軟硬一體的設備還可以做到主動的感知和預測,比如説,設備傳感器發現用户在某個界面較長時間停留,系統agent可以有針對性的提出服務建議。

7.我們希望端側的大模型(技術)可以進一步完善,讓AI大模型在AR眼鏡不聯網的情況下可以調用。這樣做的一個好處是反應更快,目前雲端的大模型方案反應速度還是比較慢;另外,不聯網的話,用户在使用時可以更好地保護隱私,更加安全。

8.今天用户所有的硬件形態,不管是計算機、手機,還是電腦,都是在解決用户和最終的那個應用之間的問題,AI是OS里面的一個應用和功能。但未來AI Agent本身會獨立成為一個OS,解決這些列表式應用的分發問題。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。