熱門資訊> 正文
2024-12-31 15:20
2024年12月火山引擎冬季FORCE原動力大會推出豆包視覺理解大模型和3D生產大模型,並對通用模型Pro、音樂生產模型和文生圖模型性能升級。根據智源研究院發佈的FlagEval「百模」評測結果,豆包通用模型Pro在大語言模型總榜中主觀評測得分最高,豆包視覺理解模型和文生圖模型在多模態模型主觀測評中得分第二。豆包視覺理解大模型和3D生產大模型具備的內容識別、視覺描述和3D內容生成能力進一步增強AI應用實用性,而使用成本相比行業價格可降低85%,有望推動AI應用市場的商業繁榮。
人工智能行業已跨過AI大模型大規模成熟商業化應用的節點,國內廠商加大對AI Agent等新一代人工智能應用的投入。AI大模型性能提升所需的千億級參數訓練及應用端繁榮對算力規模的需求,都將推動算力基礎設施的建設。根據IDC數據,2024年全球人工智能資本開支有望達2350億美元,並預計2028年增長至6320億美元,複合增速達29%。此外生成式人工智能資本開支2024-2028年GAGR有望達59%,顯著高於其他人工智能技術的22%。
人工智能行業帶動算力基礎設施建設趨勢下,服務器、液冷設備、芯片及光模塊等是供應鏈的核心環節。1)服務器:服務器是算力載體,AI服務器比普通服務器對算力及存儲性能要求更高,2024年全球普通AI服務器和高端AI服務器出貨量分別為72.5和54.3萬台,分別同比增長54.2%和172.0%。2)液冷設備:液冷服務器具有低能耗、高散熱優點,符合高算力數據中心需求;3)芯片:芯片是算力大腦,卡脖子風險最高,國產芯片亟待突破。4)光模塊:800G和1.6T高端光模塊用量有望大幅提升,國產公司在全球市場具有領先地位。
豆包大模型產品力大幅提升,並大幅降低人工智能大模型使用成本,有望推動AI應用的商業繁榮。建議關注服務器、液冷設備、芯片和光模塊等領域的投資機會:1)服務器:浪潮信息、中科曙光;2)液冷設備:英維克;3)芯片:海光信息;4)光模塊:中際旭創、天孚通信、光迅科技。
AI應用滲透不及預期;算力開支不及預期;宏觀經濟不及預期;競爭加劇。
一、豆包大模型產品力大幅增強,推動AI應用商業繁榮
2024年12月火山引擎冬季FORCE原動力大會推出豆包視覺理解大模型和3D生產大模型,並將通用模型Pro、音樂生產模型和文生圖模型升級,進一步豐富產品矩陣。2024年5月火山引擎春季FORCE原動力大會首次發佈豆包大模型系列產品以來,僅7個月就再度升級,並在多項大模型能力測評榜單中居於前列。本次大會新推出的豆包視覺理解大模型和3D生產大模型拓展了模型的內容識別、視覺描述和3D內容生成能力,並顯著降低使用成本,有望推動人工智能應用端的商業繁榮。
圖1:豆包大模型產品矩陣豐富
資料來源:火山引擎,源達信息證券研究所
豆包視覺理解模型具備更強內容識別能力和理解推理能力。豆包視覺理解模型具備強大的圖片理解與推理能力及精準的指令理解能力。模型在圖像文本信息抽取、基於圖像的推理任務上有展現出了強大的性能,能夠應用於更復雜、更廣泛的視覺問答任務。比如模型可描述圖片內容並根據圖片內容進行提問。此外,該模型可完成深度的圖片理解與推理,在表格圖像、數學問題、代碼圖像等複雜推理場景下完成任務。
圖2:豆包視覺理解模型具備更強內容識別能力 |
圖3:豆包視覺理解模型具備更強理解和推理能力 |
|
|
資料來源:火山引擎,源達信息證券研究所 |
資料來源:火山引擎,源達信息證券研究所 |
火山引擎冬季FORCE原動力大會首次發佈豆包3D生成模型。該模型可支持文生3D、圖生3D及多模態生成等諸多功能,模型與火山引擎數字孿生平臺veOmniverse結合使用,可高效完成智能訓練、數據合成和數字資產製作,成為一套支持 AIGC 創作的物理世界仿真模擬器。
圖4:火山引擎首次發佈豆包3D生成模型 |
圖5:豆包3D生成模型可根據文本生成3D場景 |
|
|
資料來源:火山引擎,源達信息證券研究所 |
資料來源:火山引擎,源達信息證券研究所 |
火山引擎對豆包通用模型Pro進行升級,模型性能大幅提升。豆包通用模型Pro相比2024年5月發佈版本,在綜合能力上提升32%,與GPT-4o持平,而使用成本僅是其八分之一。模型在指令遵循、代碼、專業知識、數學層面對齊GPT-4o水平,其中指令遵循能力提升9%,代碼能力提升58%,GPQA專業知識方面能力提升54%,數學能力提升43%,推理能力提升13%。
圖6:豆包通用模型Pro綜合能力大幅提升 |
圖7:通用模型Pro在指令遵循、代碼、數學等指標對標GPT-4o |
|
|
資料來源:火山引擎,源達信息證券研究所 |
資料來源:火山引擎,源達信息證券研究所 |
圖8:豆包文生圖模型能力升級 |
圖9:豆包音樂模型能力升級 |
|
|
資料來源:火山引擎,源達信息證券研究所 |
資料來源:火山引擎,源達信息證券研究所 |
豆包大模型能力顯著提升,在多項能力測評中排名前列。根據2024年12月19日智源研究院發佈的FlagEval「百模」評測結果,在閉源大模型評測能力總榜中,豆包通用模型Pro在大語言模型總榜中主觀評測得分最高;多模態模型評測總榜中,豆包視覺理解模型和文生圖模型的主觀測評得分均排名第二。
圖10:豆包通用模型Pro在大模型測評總榜中排名第一 |
圖11:豆包視覺理解模型在視覺語言模型測評榜單中排名第二 |
|
|
資料來源:智源研究院,源達信息證券研究所 |
資料來源:智源研究院,源達信息證券研究所 |
豆包視覺理解模型使用成本大幅低於行業平均水平,有望推動AI應用商業化成熟。根據火山引擎冬季FORCE原動力大會數據,豆包視覺理解模型的使用成本是0.003元/千Tokens,大幅低於GPT-4o的0.0175元/千Tokens,比行業價格低85%,大模型使用成本降低有望推動AI應用商業化。根據AI產品榜數據,豆包APP在2024年11月全球AI產品榜中排名第二,在終端應用的滲透率進一步提升。
圖12:豆包視覺理解模型使用成本大幅低於行業平均水平 |
圖13:豆包APP在11月全球AI產品榜中排名第二 |
|
|
資料來源:火山引擎,源達信息證券研究所 |
資料來源:智源研究院,源達信息證券研究所 |
二、人工智能產業加快增長,應用及算力是兩大支柱
AI大模型對算力需求大,推動AI基礎設施建設。AIGC行業進入高速發展期,AI大模型性能持續提升的背后是千億級以上的參數訓練,帶來對算力的高額需求,有望推動新一輪AI基礎設施建設。根據OpenAI官網,AI模型訓練計算量自2012年起每3.4個月就增長一倍。以GPT-3模型為例,根據lambdalabs數據,該模型參數規模達1750億,完整訓練運算量達3640PFlop/s-days(以3640PFlop/s速度進行運算,需要3640天)。模型完成單次訓練約需要355個CPU年並耗費460萬美元(假設採用Nvidia Tesla V100芯片)。
表1:人工智能大模型的參數規模呈指數級增長趨勢
Models |
Release time |
Developers |
Parameter size/10-8 |
Sample size/10-9 |
GPT-1 |
2018 |
OpenAI |
1.17 |
10 |
BERT |
2018 |
|
3.40 |
34 |
GPT-2 |
2019 |
OpenAI |
15.00 |
100 |
Fairseq |
2020 |
Meta |
130.00 |
— |
GPT-3 |
2020 |
OpenAI |
1750.00 |
4990 |
GLaM |
2021 |
|
1200.00 |
16000 |
LaMDA |
2022 |
|
1370.00 |
15600 |
GPT-4 |
2023 |
OpenAI |
— |
— |
Ernie Bot |
2023 |
Baidu |
— |
— |
SparkDesk |
2023 |
iFLYTEK |
1700.00 |
— |
PanguLM |
2023 |
HUAWEI |
>30000 |
資料來源:《大語言模型研究現狀及趨勢》,源達信息證券研究所
高算力需求迫切,推動AI基礎設施建設。高訓練算力需要與相應基礎設施匹配,根據《2022-2023中國人工智能計算力發展評估報告》預計,2024中國智能算力規模將達641EFlop/s,同比增長50%,並預計2025年中國智能算力將達923Eflop/s,同比增長44%。。
圖14:預計2022-2024年全球AI支出年增速高於20% |
圖15:預計2024年中國智能算力規模同比增長50% |
|
|
資料來源:IDC,世界銀行,源達信息證券研究所 |
資料來源:IDC,源達信息證券研究所 |
IDC預計2024年全球人工智能資本開支達2350億美元,並預計2028年增長至6320億美元,複合增速達29%。此外生成式人工智能資本開支2024-2028年GAGR有望達59%,顯著高於其他人工智能技術的22%。
圖16:IDC預計2024-2028年全球人工智能資本開支複合增速GAGR達29%
資料來源:IDC,源達信息證券研究所
根據IDC數據,人工智能支出排名前三的行業是軟件和信息服務、銀行及零售業,預計在2024 年的AI投資達896億美元,佔全球市場的38%。銀行業將顯著增加對欺詐分析和調查等AI服務的需求。而軟件開支未來在人工智能支出中佔比最高,預計將顯著帶動IAAS、SAAS、PAAS等雲端服務市場的增長。
圖17:IDC預計2028年軟件資本開支將佔人工智能支出的57%
資料來源:IDC,源達信息證券研究所
大模型加速發展趨勢下,國內廠商加大對AI Agent等新一代人工智能應用的投入。AI Agent是一種以AI大模型驅動的人工智能工具,可根據具體場景實現高度個性化和智能化的智能服務,有望將大模型的潛力最大化,推動AI技術應用化,加速人工智能產業商業化。
表2:國內廠商加大對AI Agent等大模型驅動下的人工智能應用的投入
公司名稱 |
大模型產品 |
阿里雲 |
百鍊大模型服務平臺 |
AWS |
Amazon bedrock 以及partyrock.aws等工具 |
百度智能雲 |
TiAppBuilder、AgentBuilder |
京東雲 |
Al Agent開發管理平臺 |
螞蟻集團/螞蟻數科 |
螞蚊Al Studio+Max |
崑崙萬維 |
SkyAgents |
商湯科技 |
MaaS平臺-應用智能體 |
深信服科技 |
AI算力平臺 |
神州數碼 |
神州問學-AI應用及Agent管理 |
騰訊雲 |
騰訊元器 |
月之暗面 |
Kimi Plus |
中國電信(天翼AI) |
智能體開發運營平臺 |
字節跳動 |
火山引擎Al Agent開發管理平臺、豆包APP |
360 |
360智腦、360智匯雲 |
資料來源:IDC,源達信息證券研究所
三、算力產業鏈:服務器是算力基礎設施
1.大模型打開算力需求,服務器建設規模快速增長
大模型發展打開算力需求,AI算力服務器需求有望增長。自OpenAI發佈ChatGPT后,AI大模型有望成為助力千行萬業智能化轉型的底層支撐。AI大模型的訓練和運行過程對對算力需求極大,預計將推動一輪算力中心的建設。以Nvidia A100服務器為例(由8個A100 GPU構成),單台服務器算力約為5Pflop/s,則訓練一個具有1750億個模型參數的大模型需要約2917台A100服務器。
表3:具有1750億個模型參數的大模型訓練一天需要約2917台Nvidia A100服務器
模型參數(億個) |
350 |
700 |
1050 |
1400 |
1750 |
所需算力(E+8PFlop/s) |
0.63 |
1.26 |
1.89 |
2.52 |
3.15 |
有效算力比率(%) |
25% |
25% |
25% |
25% |
25% |
實際算力需求(E+8PFlop/s) |
2.52 |
5.04 |
7.56 |
10.08 |
12.6 |
服務器算力(PFlop/s) |
5 |
5 |
5 |
5 |
5 |
每日工作時間(s) |
86400 |
86400 |
86400 |
86400 |
86400 |
服務器需求數(台) |
583 |
1167 |
1750 |
2333 |
2917 |
資料來源:Nvidia官網,OpenAI,源達信息證券研究所
人工智能行業高速發展,算力鉅額缺口推動AI服務器出貨量高速增長。2023年全球普通AI服務器/高端AI服務器出貨量分別為47.0和27.0萬台,較2022年分別同比增長36.6%和490.5%,並預計2024年全球普通AI服務器和高端AI服務器出貨量分別為72.5和54.3萬台,分別同比增長54.2%和172.0%。
圖18:AI服務器出貨量高速增長
資料來源:華勤技術投資者關係公眾號,源達信息證券研究所
華為加大算力基礎設施研發力度。目前華為算力基礎設施佈局中:鯤鵬系列以通用算力為主,昇騰系列以智能算力為主,均採用國產芯片打造。華為憑藉自身強大的研發能力,已實現從算力、存力、互聯技術和計算架構等方面為世界提供第二選擇,打造算力堅實底座。從產業鏈佈局看,目前華為主要負責服務器或其中核心器件的研發和生產,並由下游服務器廠商代理銷售,主要的華為系服務器廠商有高新發展(對華鯤振宇持股70%)、四川長虹、神州數碼、拓維信息和烽火通信等。此外2023年3月中興通訊宣佈自身服務器將為百度「文心一言」提供算力支撐。
圖19:搭載鯤鵬920處理器的鯤鵬服務器主板 |
圖20:華為推出昇騰系列AI算力基礎設施 |
|
|
資料來源:華為官網,源達信息證券研究所 |
資料來源:華為官網,源達信息證券研究所 |
2.液冷技術低能耗高散熱,受益算力擴建浪潮
液冷技術相較於傳統風冷技術,具有低能耗、高散熱、低噪聲和低TCO等優點,符合數據中心高能耗、高密度的發展趨勢:
1)高效散熱:液體的冷卻能力是空氣的1000-3000倍,使得液冷技術更適用於高能耗、高功率的服務器應用場景。
2)節能降耗:液冷系統可實現更高能效比,降低數據中心能耗。液冷技術(尤其是浸沒式液冷)可將數據中心的PUE值降至1.2以下,相較於傳統風冷技術,可以節省電量30~50%。
3)提高設備可靠性:液冷技術可以減少因高温引起的設備故障,延長服務器的使用壽命,並避免因風扇引起振動和噪音。
4)節省空間:液冷技術允許更緊湊的服務器佈局,無需像風冷那樣需要較大的空氣流通空間,從而節省了數據中心的佔地面積。
5)提高功率密度:液冷技術可以支持更高的機架功率密度,滿足高性能計算和AI應用的需求。浸沒式液冷方案可以將單機架功率提升到100kW甚至200kW以上。
圖21:傳統風冷技術與液冷技術原理對比
資料來源:曙光數創招股説明書,源達信息證券研究所
圖22:液冷技術散熱能力顯著優於風冷技術 |
圖23:液冷技術節能水平顯著優於風冷技術 |
|
|
資料來源:《中興液冷技術白皮書》,源達信息證券研究所 |
資料來源:《中興液冷技術白皮書》,源達信息證券研究所 |
冷板式和浸沒式等主流液冷技術在散熱性、集成度、能效等冷卻效果指標上顯著優於傳統風冷技術。
表4:主流液冷技術與傳統風冷技術冷卻效果指標對比
|
傳統風冷 |
冷板液冷 |
浸沒單相液冷 |
浸沒相變液冷 |
散熱性能 |
0 |
+ |
+ |
++ |
集成度 |
0 |
+ |
+ |
++ |
可維護性 |
0 |
+ |
+ |
+ |
可靠性 |
0 |
+ |
+ |
+ |
性能 |
0 |
+ |
+ |
++ |
能效 |
0 |
+ |
+ |
++ |
廢熱回收 |
0 |
+ |
+ |
++ |
噪音 |
0 |
++ |
+ |
++ |
資料來源:曙光數創招股説明書,源達信息證券研究所
人工智能變革和數字經濟轉型趨勢下,數據中心往高能耗、高密度方向發展,液冷技術應用漸廣。傳統的風冷方式只能滿足2.7kW/機櫃的數據中心散熱需求,無法適應中高密度數據中心需求。液冷技術利用高比熱容的特點和對流傳熱的能力,可以滿足2.7-30kW/機櫃的數據中心散熱需求,解決超高熱流密度的散熱問題,未來液冷技術必將在數據中心領域得到愈加廣泛的應用。
表5:不同密度數據中心適用的冷卻技術
每平方功率 |
數據中心密度 |
製冷方式 |
1.2Kw/機櫃以下 |
超低密度數據中心 |
風冷 |
1.2-2.7kW/機櫃 |
低密度數據中心 |
風冷 |
2.7-7.5kW/機櫃 |
中、低密度數據中心 |
風冷/液冷 |
7.5-18kW/機櫃 |
中、高密度數據中心 |
冷板式液冷 |
18-30kW/機櫃 |
高密度數據中心 |
冷板式液冷/浸沒式液冷 |
資料來源:曙光數創招股説明書,源達信息證券研究所
根據2023《中國液冷數據中心市場深度研究報告》,預計2025年中國液冷數據中心市場規模有望達377.6億元,同比增長56%。基於市場需求發展及產業生態建設進程,未來五年中國液冷數據中心市場將以59%的複合增長率持續發展。預計到2027年,AI大模型商用落地,液冷生態趨於成熟,市場規模將出現較大幅度增長,有望達到1020億元。
圖24:2019-2022年中國液冷數據中心市場規模 |
圖25:2022-2027年中國液冷數據中心市場規模預測 |
|
|
資料來源:《中國液冷數據中心市場深度研究報告》,源達信息證券研究所 |
資料來源:《中國液冷數據中心市場深度研究報告》,源達信息證券研究所 |
四、算力產業鏈:芯片是智能核心,國產化短板明顯
Nvidia H200是目前最先進的人工智能芯片。2023年11月13日Nvidia推出新款人工智能芯片GPU H200,與公司上一代產品H100相比在存儲性能上得到大幅提升,而在算力層面性能指標未有顯著改變。
圖26:Nvidia GPU H200芯片示意圖 |
圖27:H200較H100相比在存儲性能上有大幅提升 |
||||||||||||
|
|
||||||||||||
資料來源:Nvidia,源達信息證券研究所 |
資料來源:Nvidia,源達信息證券研究所 |
國產AI芯片短板明顯,下一代產品推進順利。我們通過對國內寒武紀、華為昇騰和沐曦等國產公司旗下的AI旗艦芯片與Nvidia H100 SXM的性能指標對比,可以看到國產AI芯片與Nvidia H100在性能上仍存在較大差距。同時國產芯片公司仍在加快研發推進下一代AI芯片產品,並有望在未來對標Nvidia H100,如寒武紀在研的思元590、沐曦在研的MXC500等。
表6:國產AI芯片性能指標仍與國際頂尖水平存在較大差距
公司 |
Nvidia |
寒武紀 |
華為 |
沐曦 |
產品型號 |
H100 SXM |
思元370 |
昇騰910 |
曦思N100 |
FP32 |
67TFlop/s |
24TFlop/s |
/ |
/ |
FP16 |
1979TFlops/s |
96TFlop/s |
320TFlop/s |
80TFlop/s |
INT8 |
3958Top/s |
256Top/s |
640Top/s |
160Top/s |
資料來源:各公司公告,源達信息證券研究所
美國對AI芯片出口管制,自主可控要求下國產芯片需求迫切。2022年10月7日美國商務部工業安全局(BIS)發佈《美國商務部對中華人民共和國(PRC)關於先進計算和半導體實施新的出口管制製造》細則,其中管制物項3A090、4A090包含高性能AI芯片產品,而Nvidia A100和H100均符合管制要求。在此背景下,Nvidia推出性能閹割的中國特供版芯片A800和H800。我們認為在國內自主可控大背景下,國內AI產業對國產芯片需求迫切,或加大對國產芯片公司支持力度,國產AI芯片有望迎來技術進步和市場機遇。
表7:BIS禁令限制高性能AI芯片向中國出口
管制物項 |
管制範圍 |
3A090 |
1、輸入輸出(I/O)雙向傳輸速度高於600GB/s; 2、算力性能與精度指令比特長度乘積超過4800 |
4A090 |
1、含有超過3A090技術指標芯片的計算機、電子組件和相關部件 |
資料來源:美國商務部,源達信息證券研究所
五、算力產業鏈:光模塊快速放量,產品結構向高端升級
高算力需要與高效傳輸架構相匹配。AI大模型通常由多個服務器作為節點,並通過高速網絡架構組成集羣合作完成模型訓練。因此在模型中東西向流量(數據中心服務器間的傳輸流量)大幅增加,而模型訓練過程中南北向流量(客户端與服務器間的傳輸流量)較少,由於葉脊網絡架構相較傳統三層架構更適用於東西向流量傳輸,成為現代數據中心主流網絡架構。
圖28:AI大模型中東西向流量顯著增加 |
圖29:葉脊網絡架構適用於東西向流量傳輸 |
|
|
資料來源:華為雲,源達信息證券研究所 |
資料來源:鵝廠網事,源達信息證券研究所 |
葉脊網絡架構大幅增加對光模塊數量需求。由於葉脊網絡架構中東西向流量大,因此服務器與交換機相連均需使用光模塊,從而大幅增加對光模塊數量需求。同時AI大模型的高流量對帶寬提出更高要求,800G光模塊相較200G/400G光模塊具有高帶寬、功耗低等優點,有望在AI大模型網絡架構中滲透率提升。
表8:葉脊網絡架構對光模塊數量需求大幅提升
架構類型 |
傳統三層架構 |
改進等三層架構 |
葉脊網絡架構 |
光模塊相對於機櫃倍數 |
8.8 |
9.2 |
44/48 |
資料來源:中際旭創定向增發募集説明書,源達信息證券研究所
我們以Nvidia DGX H100 網絡架構為例。該架構適配Nvidia H100 GPU,採用葉脊網絡架構,分為1-4個SU單元類型(8個GPU組成一個H100服務器節點,32個服務器節點組成一個SU單元)。其中4-SU單元架構由127個服務器節點組成(其中一個節點用於安裝UFM網絡遙測裝置),具有1016個H100 GPU、32個葉交換機、16個脊交換機。
表9:Nvidia DGX H100 架構所需GPU、交換機數量
資料來源:Nvidia,源達信息證券研究所
我們以Nvidia DGX H100架構為例測算GPU與光模塊的對應數量。在4-SU的Nvidia DGX H100架構中,每32台服務器節點組成一個SU單元,並與8台葉交換機相連,因此服務器節點與葉交換機之間共有1024個連接(32×8×4);32台葉交換機需分別與16台脊交換機相連,因此葉交換機與脊交換機之間共有512個連接(32×16);
在Nvidia DGX H100的目前方案中,脊-葉連接採用800G光模塊,需要1024個800G光模塊;葉-服務器連接中,每個服務器節點通過一個800G光模塊與兩臺葉交換機向上連接,需要512個800G光模塊(128×4),同時每台葉交換機通過一個400G光模塊與一個服務器節點連接,需要1024個400G光模塊(128×8)。綜上計算得一個4-SU單元的DGX H100架構需要1016個GPU、1536個800G光模塊、1024個400G光模塊,GPU:800G光模塊:400G光模塊的比例約等於1:1.5:1。
圖30:Nvidia DGX H100 架構示意圖
資料來源:Nvidia,源達信息證券研究所
根據Lightcounting預測,全球光模塊市場規模在2025年有望達170億美元,並在2025-2027年或將以CAGR=11%的複合增速增長,2027年有望突破200億美元。
圖31:全球光模塊市場在2027年有望突破200億美元
資料來源:Lightcounting,源達信息證券研究所
國產光模塊廠商在2023年全球光模塊企業TOP10排名中佔據7席。TOP10中國內企業為中際旭創(Innolight)、華為(Huawei)、光迅科技(Accelink)、海信(Hisense)、新易盛(Eoptolink)、華工正源(HGG)、索爾思光電(已被華西股份收購)。而在高端光模塊領域,中際旭創已在2024年實現1.6TG光模塊批量出貨,並加快對3.2T等更高端光模塊技術的研發。
表10:中際旭創在2023年全球光模塊企業排名中位居第一
2021 |
2022 |
2023 |
Ⅱ-Ⅳ&Innolight |
Innolight&Coherent |
Innolight |
Coherent |
||
Huawei(HiSilicon) |
Cisco(Acacia) |
Huawei(HiSilicon) |
Cisco(Acacia) |
Huawei(HiSilicon) |
Cisco(Acacia) |
Hisense |
Accelink |
Accelink |
Broadcom(Avago) |
Hisense |
Hisense |
Eoptolink |
Eoptolink |
Eoptolink |
Accelink |
HGG |
HGG |
Molex |
Intel |
Source Photonics |
Intel |
Source Photonics |
Marvell |
資料來源:Lightcounting,源達信息證券研究所
六、投資建議
1.建議關注
豆包大模型產品力大幅提升,產品矩陣進一步豐富,並大幅降低人工智能大模型使用成本,配合豆包APP在終端應用滲透率的提升,有望推動AI應用的商業繁榮。伴隨AI應用需求增長,打開算力高額需求缺口,推動算力基礎設施建設。建議關注服務器、液冷設備、芯片和光模塊等領域的投資機會:
1)服務器:浪潮信息、中科曙光;
2)液冷設備:英維克;
3)芯片:海光信息;
4)光模塊:中際旭創、天孚通信、光迅科技。
2.行業重點公司一致盈利預測
表11:萬得一致盈利預測
公司 |
代碼 |
歸母淨利潤(億元) |
PE |
總市值(億元) |
||||
2023E |
2024E |
2025E |
2023E |
2024E |
2025E |
|||
浪潮信息 |
000977.SZ |
22.9 |
28.5 |
34.0 |
34.2 |
27.5 |
23.0 |
781 |
中科曙光 |
603019.SH |
21.7 |
26.6 |
32.0 |
50.0 |
40.7 |
33.9 |
1083 |
英維克 |
002837.SZ |
5.4 |
7.2 |
9.4 |
56.1 |
41.9 |
32.3 |
303 |
海光信息 |
688041.SH |
19.0 |
27.2 |
36.5 |
187.9 |
131.7 |
98.1 |
3579 |
中際旭創 |
300308.SZ |
53.4 |
88.0 |
108.9 |
27.5 |
16.7 |
13.5 |
1471 |
天孚通信 |
300394.SZ |
14.4 |
23.2 |
30.3 |
36.9 |
22.9 |
17.6 |
531 |
光迅科技 |
002281.SZ |
7.8 |
10.9 |
13.7 |
56.7 |
40.5 |
32.3 |
440 |
資料來源:Wind一致預期(2024/12/30),源達信息證券研究所
七、風險提示
算力資本開支不及預期;
AI應用滲透不及預期;
宏觀經濟環境惡化;
競爭格局惡化。
投資評級説明
行業評級 |
以報告日后的 6 個月內,證券相對於滬深 300 指數的漲跌幅為標準,投資建議的評級標準為: |
|
|
看 好: |
行業指數相對於滬深 300 指數表現+10%以上 |
|
中 性: |
行業指數相對於滬深 300 指數表現-10%~+10%以上 |
|
看 淡: |
行業指數相對於滬深 300 指數表現-10%以下 |
公司評級 |
以報告日后的 6 個月內,行業指數相對於滬深 300 指數的漲跌幅為標準,投資建議的評級標準為: |
|
|
買 入: |
相對於恆生滬深 300 指數表現+20%以上 |
|
增 持: |
相對於滬深 300 指數表現+10%~+20% |
|
中 性: |
相對於滬深 300 指數表現-10%~+10%之間波動 |
|
減 持: |
相對於滬深 300 指數表現-10%以下 |
辦公地址 |
||||||
|
分析師聲明
作者具有中國證券業協會授予的證券投資諮詢執業資格並註冊為證券分析師,以勤勉的職業態度,獨立、客觀地出具本報告。分析邏輯基於作者的職業理解,本報告清晰準確地反映了作者的研究觀點。作者所得報酬的任何部分不曾與,不與,也不將與本報告中的具體推薦意見或觀點而有直接或間接聯繫,特此聲明。
重要聲明
河北源達信息技術股份有限公司具有證券投資諮詢業務資格,經營證券業務許可證編號:911301001043661976。
本報告僅限中國大陸地區發行,僅供河北源達信息技術股份有限公司(以下簡稱:本公司)的客户使用。本公司不會因接收人收到本報告而視其為客户。本報告的信息均來源於公開資料,本公司對這些信息的準確性和完整性不作任何保證,也不保證所包含信息和建議不發生任何變更。本公司已力求報告內容的客觀、公正,但文中的觀點、結論和建議僅供參考,不包含作者對證券價格漲跌或市場走勢的確定性判斷。本報告中的信息或所表述的意見均不構成對任何人的投資建議,投資者應當對本報告中的信息和意見進行獨立評估。
本報告僅反映本公司於發佈報告當日的判斷,在不同時期,本公司可以發出其他與本報告所載信息不一致及有不同結論的報告;本報告所反映研究人員的不同觀點、見解及分析方法,並不代表本公司或其他附屬機構的立場。同時,本公司對本報告所含信息可在不發出通知的情形下做出修改,投資者應當自行關注相應的更新或修改。
本公司及作者在自身所知情範圍內,與本報告中所評價或推薦的證券不存在法律法規要求披露或採取限制、靜默措施的利益衝突。
本報告版權僅為本公司所有,未經書面許可,任何機構和個人不得以任何形式翻版、複製和發佈。如引用須註明出處為源達信息證券研究所,且不得對本報告進行有悖原意的引用、刪節和修改。刊載或者轉發本證券研究報告或者摘要的,應當註明本報告的發佈人和發佈日期,提示使用證券研究報告的風險。未經授權刊載或者轉發本報告的,本公司將保留向其追究法律責任的權利。
財務報表及指標預測