热门资讯> 正文
2026-04-09 17:42
(来源:纪要头等座)
1、Happy House模型基本情况
·榜单表现与评测:Happy House在可信度较高的双盲人工榜单中排名第一,该类榜单洗榜难度极大,结果具备较高参考性。本次榜单评测的三大核心维度为画面、画质、遵循度:遵循度指模型对用户指令中场景、人物动作等要求的匹配程度;画面层面在空气、水流动、云雾、光线、反光等细节处理上表现优异,多人物场景下对人物五官、手指等细节的还原度突出。本次评测仅覆盖文本或图片生视频场景,参与评测的用户多为小白,以直观感受打分,因此全模态参考(支持上传声音、视频输入)等功能优势不会纳入评测范围,CDS 2.0的全模态参考特性、可灵3.0针对专业用户的优化设计均不在评测维度内。大众普遍存在的误解是认为榜单排名第一代表模型全方面优于其他排名靠后的产品,实际上音画同声、帧率等功能均不在本次评测范围内,榜单结果仅代表对应维度下的表现,不能等同于模型综合能力更强。
·模型参数与开源规划:Happy House官方披露的核心参数为模型层数40层,参数量十几B,后续将开源,这也是其市场关注度较高的核心原因之一。文生视频模型的参数存在不同统计口径,闭源厂商通常会将全模态参考信息理解、diffusion模块等所有相关模块的参数全部纳入统计,例如CDS 2.0标注的100B参数量就包含了全模态相关模块的参数;而开源模型通常仅统计核心渲染模块的参数,两者统计维度没有对齐,不能直接进行参数层面的优劣对比。目前行业内文生视频核心渲染模块的参数量普遍在20B-30B之间,模型层数普遍处于30层到48层区间,不同产品之间没有明显差异,Happy House的参数处于行业常规水平,并非在参数层面有远超同类产品的优势。该开源模型能达到现有表现已经较为突出,若后续顺利开源,将对真人拍摄、视频制作等领域产生不小的影响。
·算力消耗情况:Happy House官方披露的算力消耗数据为,单块H100约需38秒生成5秒视频,换算后约200秒可生成15秒视频,算力节约效果较为明显。对比同类效果的闭源模型,多数需要3-4块A100并行运行,或是1块以上H100并行才能生成同等效果的内容,Happy House的算力消耗低于行业平均水平。但市场上传言其算力消耗仅为Kling 2.0、可灵3.0的一半的说法存在夸张成分,核心原因是算力消耗统计口径不对等:一方面外界无法获知CDS 2.0、可灵3.0的实际部署硬件配置与真实版本的算力消耗情况;另一方面CDS 2.0等闭源模型需要支持全模态参考、音画同声、分镜效率等复杂功能,相当于专业越野车,油耗下限较高,而Happy House在多模态对话、分镜等功能上存在缺失或表现薄弱,仅聚焦核心的文生视频渲染功能,类似城市SUV,算力消耗更低属于合理情况,并非单纯依靠技术优化实现算力减半。
·模型归属猜测:关于Happy House的归属目前没有明确结论,现有两类可信度较高的信息来源:一类是模型自身的官方网站,该网站可通过Arena等具备较高信任度的三方评测网站直接跳转,已经过三方平台验证认可,网站披露其暂未开放使用、即将开源,相关参数描述逻辑自洽,信息可信度较高;另一类是市场传言其为阿里的相关模型,阿里确实有同类文生视频项目立项,相关网站使用了阿里万象文生视频的专属星星或陀螺样式logo,且模型名称与Happy House一致,但该网站的模型描述信息与本次评测榜单的参数无法关联匹配。目前无法排除两个模型重名的可能性,阿里不存在刻意蹭热度发布虚假信息的动机,建议市场无需急于对模型归属下结论,等待官方正式确认即可。
2、Happy House模型竞争力与应用
·模型核心优势:Happy House模型在多真人场景化表现领先国内所有模型,单人人像表现已处于较好水平。针对包含7-8人甚至十几人的多人物生成场景,国内现有闭源旗舰模型普遍无法满足需求,最终仅能生成3-6人,且无法映射人物对应的属性特征,而Happy House模型在该类场景下的表现有明显提升,虽无法做到完全遵循指令,但人像还原、指令遵循度及场景契合度均大幅优于国内同类模型,可更好满足复杂多人物场景的生成需求。
·适用场景与短板:适用场景方面,当前国产模型普遍在漫剧制作领域表现较好,存在较强AI感与锐化特征,而Happy House模型的多真人生成优势使其更适配真人短剧制作场景。短板方面,该模型暂不具备全模态参考、分镜等工业生产必备功能,仅能生成5-15秒视频,无法满足工业生产的拼接等需求,生产力表现不及CDS 2.0、万象、可灵等系列闭源旗舰模型。2026年万象将更新3.0、3.5版本,2026年2月发布的可灵2.0已具备分镜功能,可帮助降低一半以上制作成本,闭源旗舰模型在工业生产力层面更具优势。
·架构特征分析:万象系列模型迭代方面,万象2.5、2.6版本于2025年三四季度更新,已支持全模态参考能力,在光线处理、转景表现上表现较好,但人像处理能力较弱,人物五官、手部、唇动还原度不足。Happy House模型未沿用万象1.25版本架构,否则不会出现基础工业功能缺失但人像表现大幅提升的特征,若该模型属于阿里系,其架构层面存在明显重构,整体开源风格也符合阿里万象系列的产品特点。
3、字节系Tokens消耗规模与驱动
·核心指标与口径差异:2026年3月可观测到两个字节系相关的核心Tokens消耗指标:一是火山引擎日均Tokens消耗100万亿,统计范围为火山引擎云平台上所有模型产生的Tokens;二是豆包大模型日均消耗120万亿,统计范围为所有使用豆包大模型产生的计算Tokens,不局限于公有云或火山引擎平台。国内有关部门统计数据显示,截至2026年3月底,国内市场化日均Tokens消耗约140万亿,仅统计市场化对外服务部分。两类数据存在明显差异,核心原因在于统计口径不同:豆包大模型的统计包含豆包APP、企业内部使用等非市场化场景,不在官方市场化统计范围内;火山引擎的100万亿Tokens消耗也包含了企业内部员工使用、豆包APP等通过云服务提供的Tokens,并非全部属于市场化对外服务范畴,因此无法直接与官方统计数据对等。ToB企业采购大模型市占率数据可作为参考,当前千问市占率在25%-30%区间,2026年初约为25%-26%,当前已上涨至约28%,仍处于上升通道;豆包市占率约18%,同样呈缓慢上涨态势,DeepSeek市占率排在豆包之后。
·消耗结构拆分:字节系Tokens消耗可分为三大类构成:一是公开可统计的外部使用部分,截至2026年3月末,豆包大模型在火山引擎公有云的消耗(不含其他模型)较2025年末近似翻倍,日均超25万亿Tokens;C端以豆包APP为主的应用日均消耗接近13万亿Tokens;文生视频领域增长明显,仅吉梦相关文生视频模型日均消耗约8万亿Tokens,且以视觉Tokens为主,算力消耗是文本处理的上千倍;抖音、头条等直接面向用户的应用日均消耗超4万亿Tokens,较2025年也实现翻倍。二是用户不可见的内部业务消耗,典型(更多实时纪要加微信:jiyao19)场景为直播间监控,低流量、低关注度的普通直播间每分钟约消耗1500Tokens,高关注度、存在舆情风险的头部直播间每分钟消耗超3万Tokens,整体用量规模较大。三是统计口径中不消耗云端算力的部分,以豆包大模型统计口径为例,私有化部署、端侧模型(如手机、电脑、车载端运行的豆包模型,不消耗云端GPU)的使用量也被纳入统计,进一步推高了公布的消耗数值。
·增长驱动因素:2026年一季度公有云Tokens消耗实现明显增长,主要驱动因素包括三方面:一是Agent类应用的带动,龙虾应用在2026年3月热度较高,高峰时日活超200万,单用户日均Tokens消耗超100万,当前热度已有所降温,且3月用户使用已相对谨慎。二是优惠政策的短期刺激,火山引擎公有云推出的Coding Plan付费套餐,原本面向编程、龙虾类项目场景,实际无使用门槛,价格极低,采用按调用次数计费、不计Tokens的规则,甚至部分企业选择让员工个人购买后报销,成本低于集采,大幅带动了Tokens消耗,2026年3月Agent带动的Tokens增长中,很大一部分来源于该优惠政策的刺激。三是企业AI化升级的真实需求,除去薅羊毛的优惠套餐消耗外,真实的ToB场景增长主要来源于中小企业AI使用渗透率提升,核心驱动力是企业从原有工作流向智能体、Agent升级的AI化改造需求,而非编程场景的消耗大幅增长。
·统计放大逻辑:公开的Tokens统计数据与普通用户的实际感知存在较大差异,核心是Tokens统计包含多层用户不可见的计算逻辑,厂商可通过调整统计口径放大公布的规模。普通豆包高频用户单日可见的交互(输入+输出)Tokens约1.2万,但平台统计值可能远高于该数值,主要有两层放大逻辑:一是RAG检索内容纳入统计,用户提问后模型在线检索的所有网页内容的Tokens,全部计入用户本轮消耗,单次检索多个网页即可带来消耗量级的明显提升;二是用户属性与历史记忆纳入统计,平台会将用户职业、年龄等属性标签,以及历史对话的长短期记忆内容拼接为上文计入消耗。如果平台选择将上述内容全部纳入统计,单个用户单日统计Tokens可超10万,使用专家模式的用户消耗量会更高,这也是2026年及后续查看Tokens相关数据时需要注意的口径问题。
4、Tokens计算逻辑与教育场景应用
·Tokens合理计算方式:Tokens计算需明确CPU与GPU的算力消耗差异,网页检索、内容去重、排序等环节主要消耗CPU,这部分算力消耗不属于合理的Tokens统计范围,仅进入GPU计算的有效内容属于合理Tokens消耗范围。当前Tokens统计存在明显口径差异:普通用户仅以自身输入的任务描述长度、模型最终输出的文案长度计算单次交互的Tokens,和真实算力消耗存在较大偏差,实际统计还需考量模型推理过程中检索的信息,但这类检索信息不一定消耗GPU,具体消耗量也无明确标准。部分厂商会将CPU消耗的相关环节计入用户任务的Tokens消耗,这是Tokens统计误差的核心来源。
·拍题解题场景应用:拍题解题的核心工作流程无需全程使用GPU:首先通过OCR识图提取题干,再用题干在数据库中检索匹配对应题目、调取答案,仅最终的答案整理、知识点输出环节需要大模型参与,但多数厂商会将全流程环节都计入Tokens消耗,导致统计数据虚高。大模型在该场景的实际作用有限,仅在OCR识图后对题干做统一化转化,剔除数字等变量后形成标准化描述,便于在题库中精准检索,这类工作仅需几B参数的模型即可完成,相比此前的深度学习时代,检索准确率有一定提升。当前大模型在教育场景存在明确能力边界:仅数学类模型可实现新题的自主推理解题,史地生、物理化学等科目因涉及图文联动、低分辨率试卷识别等问题,暂不具备复杂大题的解题能力,仅能处理客观题、简单简答题,无法解决实验设计、复杂识图类题目。拍题解题的实际效果核心取决于题库规模,讯飞和字节的题库规模超1亿甚至近2亿,覆盖市面绝大多数常见题,行业表现最优。
5、Tokens结构拆分与豆包运营数据
·内外部消耗占比:2026年3月火山引擎日均Tokens消耗量达100万亿,统计口径为其服务器上产生的所有消耗量,包含内部使用、外部ToB业务及抖音直播间监控等场景;豆包大模型日均Tokens消耗量达120万亿,统计范围包含豆包APP、内部使用等场景,二者存在重叠部分,即运行在火山引擎算力上的豆包大模型相关消耗会被双方同时统计。豆包大模型可运行在非火山引擎平台,比如私有化部署场景下,客户机房使用昆仑芯、寒武纪思元590等卡型运行豆包32B以下模型推理的消耗,仅计入豆包大模型的Tokens统计,这部分是二者的非重叠区间,当前豆包大模型的非重叠消耗规模更大。豆包大模型总消耗中,公有云对外ToB部分约25-26万亿/天,占总消耗的1/5左右;剩余3/5的消耗来自内部业务、端侧部署、私有化部署等场景。
·ToB与ToC消耗拆分:2026年3月火山引擎的对外消耗以ToB业务为主,仅包含少量无法区分的个人API用户,其余ToC相关业务消耗单独统计,不计入该部分。ToC场景中,豆包APP日均Tokens消耗接近13万亿/天,为ToC端消耗量最高的场景;其次是吉梦系列,以视觉Tokens消耗为主,属于泛ToC范畴,日均消耗超过8万亿/天;其余C端应用包括飞书、哇哦等消耗量较低,原因在于这类应用的智能体请求、AI功能调用大多通过扣子或龙虾模块流转,相关消耗被计入火山引擎的ToB统计,仅发起请求的环节计入对应产品的消耗,因此自身统计到的Tokens规模较小。
·豆包日活与增速:豆包的净日活仅统计通过APP、网址、客户端直接访问的用户,头条内@豆包回复等间接使用场景不计入,2026年3月净日活约1.07-1.08亿,接近1.1亿,低于网络公开说法。各业务板块增速存在明显差异:豆包大模型ToB业务季度环比翻倍,2025年年末ToB消耗刚过10万亿/天,2026年第一季度末实现翻倍;其次是文生视频板块,CDS 2.0带来快速增长。而2026年第一季度豆包APP等ToC应用的日活增长仅约1000万,增速较为平稳,核心原因是日活已接近瓶颈,对应Tokens消耗增长也相对平缓,整体增量更多来自用户不可见的后台场景。
6、大模型业务定价与盈利能力
·Coding Plan定价调整:Coding Plan当前定价为50元/月,用户购买后可在1个月有效期内调用9万次服务,且调用不限Tokens,若用户请求生成长篇内容,只要模型下文长度足够,仅扣除1次调用额度。该模式完全不具备投入产出比,处于巨亏状态,甚至引发了部分用户投诉,同时2026年3月运营期间,Open Cloud的C端用户留存也不及预期。针对该问题,相关业务已进行政策调整,Coding Plan相关计划已经停止,用户在2026年3月31日之后无法再进行续费,也不能新开通该服务。
·文生视频盈利情况:文生视频业务不同平台的定价与盈利表现存在明显差异。即梦平台的文生视频单视频定价为2.5-2.6元,单视频推理成本为1.7-1.8元,即使用户上传大量素材,成本仅会上涨至2.1-2.2元,单视频毛利约20%,处于正向水平;但由于平台设有签到领积分等免费权益,即梦平台整体文生视频业务目前处于亏损状态。火山引擎的文生视频定价显著高于即梦,平均为1元/秒,核心优势是无需排队可即时生成。其付费规则分为两类:a. 普通用户需一次性起充100万元,且仅可使用CBA系列模型;b. 大客户需通过领导审批,承诺年消费1000万元,若年底消费不足需补齐或预充,且来年无法继续享受该套餐。结合定价与预充规则,火山引擎文生视频业务盈利能力较强。
·文生文盈利情况:文生文业务当前主要集中在火山引擎侧,C端产品豆包的收费政策已明确:2026年全年保持免费,该政策将持续至年底,2027年豆包的部分基础功能或推出订阅制收费模式。在毛利表现方面,豆包1.6、1.8模型的基模没有发生较大变化,边际成本持续下降,若不考虑视觉理解部分,仅文本推理部分的毛利约为27%-28%,盈利表现稳定。
·火山引擎竞争优势:火山引擎文生视频业务可支撑高定价且无需排队,核心在于其同时具备三类独有的竞争壁垒:a. 拥有H100、H800起步的充足合规算力,这一门槛已将Minimax、可灵等多数缺少算力储备的竞品排除,仅阿里云等少数厂商可达到该要求;b. 具备短视频流量扶持能力,可给使用者提供流量支持,这是阿里云等算力充足厂商不具备的能力;c. 拥有抖音+即梦的完整生态,生成的视频可直接投放到短剧、抖音、即梦社区等场景,进一步提升API价值,竞品难以同时覆盖三类优势。
7、算力存量结构与采购计划
·英伟达算力卡存量:英伟达各型号算力卡存量规模、应用场景及剩余寿命情况明确:英伟达系列卡中存量最高的是H20,规模达30-35万张,因采购时间较晚短期内不会损坏,主要用于研发场景,以及火山引擎低价API、Deepfake推理、豆包文本推理等低消费场景。其次是A100、A800系列,存量约12-13万张,是文生文、生图场景的主力卡型,支撑云服务及豆包APP文本服务;该系列最早交付时间为2023年,英伟达显卡通常使用5年后易出现故障,因此2027年A100将进入衰退期。H100、H800系列(不含H20)存量不足10万张,供给极其紧缺,各业务仅能分到1/4左右配额,当前处于7×24满负荷运行状态。此外V100、A10、A30等型号已进入寿命尾期,未来2-3年将全部退卡;L20、L40存量不到10万张,整体规模较小。
·国产算力卡存量:国产高性能算力卡存量及应用场景清晰:当前国内可纳入高性能卡范畴的产品主要为华为昇腾910系列与寒武纪思元590系列。其中寒武纪思元590存量超25万张,尚未完全上架;华为昇腾910B、910C系列合计存量达11-12万张。寒武纪卡整体采购量较高,核心用途是替换即将到达寿命尾期的英伟达V100、A10、A30等老旧卡型,适配搜广推等模型训练需求;自2025年起寒武纪卡年采购量达20万张以上,预计2026-2027年寒武纪590、370及其他含5G的卡型合计保有量将达到50万-60万张以上。
·2026年国产采购计划:2026年国产算力卡及相关方案采购计划明确,核心围绕高阶卡展开,主要分为三类:
a. 寒武纪系列卡:计划采购思元590、690合计25万张,其中690采购上限约10万张,590占比更高,主要用于替换英伟达V100,适配搜广推等模型训练需求,当前寒武纪年交付上限为25万张;同时将采购一定规模的寒武纪370、580卡型。
b. 384超节点方案:计划采购300套384超节点方案,单套含360颗芯片,合计需10万颗左右芯片;前期到货以昇腾910系列为主,50-60个节点采用910B、910C,待2026年三季度昇腾950PR批量交付后,后续节点将装配950PR,部分用于训练场景的节点需等待适配DT芯片。
c. 海光芯片:受950PR良品率、产能及宏观调控影响,950PR采购量有所缩减,2026年二季度起将增加海光芯片采购,采购量至少5万颗,以单颗芯片或单卡形式采购,用于填补950PR缩减后的供给缺口。
8、海外采购与业务增长预期
·海外算力采购规划:海外算力采购的市场预期规模已超过1000亿人民币,后续预计整体可达1200亿人民币。拟采购的核心高端算力卡型包括H200、B200、GB200三类,相关卡型均会被纳入采购覆盖范围。
·云业务增长预期:云业务各板块执行量增速与营收增速存在明显差异,其中MaaS、PaaS等成熟业务执行量目标为3-5倍增长,单季度执行量增速可达一倍以上。受折扣、优惠及套餐政策影响,营收增速低于执行量增速:AI云业务2025年营收约50亿,2026年预期收入可达120亿甚至更高;整体云业务2025年营收在220-250亿区间,2026年营收目标要求超过400亿,同比增速约60%-70%,接近翻倍水平。
·Tokens增长目标:2026年Tokens原增长目标为10倍,该目标制定时未纳入统计充数体量,设定相对保守,当前已确定可完成,年末最终披露数据暂未明确。季度表现方面,2026年一季度Tokens日均规模已达120万亿,二季度预计将远超200万亿的此前预期。Tokens规模高速增长存在双重驱动:一方面OpenCloud成为新的业务增长点带来真实增长,另一方面统计口径调整也对规模增长有较大贡献,二季度统计口径调整的影响占比更高。
Q: Happy House模型的具体情况如何?
A: Happy House模型在双盲人工评测榜单中表现突出,核心优势集中于画面质量、人物细节及指令遵循度。官方披露模型层数40层、参数量十几B,但需注意文生视频模型参数统计维度差异:例如CDS 2.0宣称100B包含全模态理解与Diffusion等全链路,其核心视频生成模块实际约20B–30B,Happy House仅描述核心部分属合理表述,并非性能碾压。算力消耗方面,单块H100生成5秒视频约需38秒,显著低于部分需3–4块A100或并行H100的闭源模型,但消耗减半说法存在夸大;其功能侧重基础生成,在全模态参考、音画同步、分镜等工业级能力上较为薄弱。若按计划开源,将对真人短剧制作等领域产生实质性影响。模型归属尚存争议:官网经Arena等第三方评测平台验证,但阿里亦有同名项目及万象系列Logo,需待官方进一步澄清。
Q: 在国内模型评价体系中,Happy House模型的综合评级如何?与CDS 2.0、快手可灵等模型相比,其核心优劣势及差异化是什么?
A: Happy House在多人物场景生成方面显著领先国内现有闭源模型,使真人短剧制作可行性提升;但工业生产力维度存在短板,缺乏全模态参考、智能分镜、高质量音画同步等关键功能,导致视频拼接与复杂工作流支持不足。CDS 2.0等旗舰闭源模型虽算力消耗较高,但分镜功能可降低50%以上制作成本,全模态输入与高频对话支持使其在专业场景更具实用性。架构层面,Happy House与阿里万象2.5/2.6差异明显,若属阿里系则可能经历核心架构重构。整体而言,Happy House类似城市SUV,CDS 2.0则如专业越野车。
Q: 字节系Tokens的日均消耗量、近期增速及核心驱动业务有哪些?
A: 截至3月底,火山引擎日均Tokens消耗约100万亿,豆包大模型全生态日均消耗约120万亿。市场占比方面,千问系列占25%–30%,豆包占18%。业务拆分:豆包大模型在火山引擎公有云消耗达25–26万亿,C端豆包APP近13万亿,文生视频超8万亿,抖音/头条等应用超4万亿。增长驱动包括中小企业AI adoption提升、文生视频需求爆发,以及内部高消耗场景。需注意Tokens统计口径差异:RAG检索网页内容、用户属性拼接等非GPU消耗环节亦被计入,导致总量与用户感知存在偏差。
Q: Tokens的合理计算方式应如何界定?如何与真实算力消耗匹配?
A: Tokens统计存在显著口径偏差:网页检索、内容去重等环节主要消耗CPU,但被全额计入用户任务消耗;拍题解题等场景中,OCR识别、题库检索等非GPU步骤亦被纳入统计。合理计算应聚焦模型推理环节的实际输入输出Tokens,但行业普遍将全流程消耗计入,导致单次对话Tokens量级被放大数倍。例如,用户感知的输入+输出仅为基础部分,平台若将检索的20个网页内容全部计入,则消耗量急剧膨胀,造成与真实GPU算力消耗脱节。
Q: 在拍题解题应用场景中,大模型相较于传统技术的核心改进点是什么?
A: 当前大模型在拍题解题中的改进主要体现于题干标准化处理:通过小参数模型统一变量描述,提升题库检索准确率,属深度学习时代的辅助优化。除数学类题目具备一定推理能力外,史地生、物理化学等学科的复杂图文题模型尚无法解决,实际解题高度依赖题库规模。核心流程仍由OCR识别与题库匹配完成,大模型仅辅助生成答案描述文本,非多模态模型直接解题能力的突破。
Q: 豆包大模型120万亿Tokens消耗与火山引擎100万亿Tokens消耗的统计差异原因是什么?
A: 统计范围不同:火山引擎Tokens仅统计其云平台服务器产生的全部消耗;豆包大模型Tokens统计所有部署环境消耗,包括火山引擎、私有化部署、端侧设备,因此豆包数据覆盖更广,包含非火山引擎算力的消耗部分,导致总量高于火山引擎。
Q: 字节系Tokens消耗中,内部使用与外部客户的占比如何拆分?
A: 以豆包大模型120万亿日均为例,对外服务约25–26万亿,To C业务合计约25万亿,剩余约70万亿为内部使用及端侧/私有化部署消耗。火山引擎统计口径为纯To B,豆包APP、飞书等C端业务单独归类统计。
Q: 豆包大模型一季度各业务线的Tokens消耗增速是否均实现翻倍?
A: 增速呈现明显分化:To B业务从2023年末10万亿增至25–26万亿,实现翻倍;文生视频增长显著;To C业务中豆包APP净日活达1.07–1.08亿,Tokens消耗增速平稳;主要增量来自用户不可见场景。Coding Plan因定价过低已于3月31日停售。
Q: Coding Plan等促销活动对利润率的影响如何?Tokens推理的边际成本下降趋势怎样?
A: Coding Plan因定价与成本严重倒挂导致巨额亏损,已终止。文生视频方面,即梦平台单视频成本约1.7–1.8元,毛利约20%,但因免费积分策略整体未盈利;火山引擎定价约1元/秒,凭借免排队与生态协同实现较好盈利。文生文模型文本推理边际成本持续下降,毛利达27%–28%;豆包APP基础功能2024年免费,2025年或引入订阅制。
Q: 火山引擎文生视频服务定价显著高于竞品的核心原因是什么?
A: 火山引擎定价优势源于三重壁垒:高阶算力储备、短视频流量扶持、生态协同。竞品或受限于算力(更多实时纪要加微信:jiyao19)、或缺乏流量入口,难以同时满足高画质、免等待、商业变现需求,故火山引擎在企业级市场具备独特溢价能力。
Q: 公司当前各类算力卡的存量规模及使用分布如何?
A: 英伟达卡以H20为主,A100/A800约12–13万张,H100/H800不足10万张。国产卡中寒武纪思元590超25万张,升腾910B/C系列超10万张。V100/A10/A30等老旧卡型正加速淘汰,L20/L40等卡量不足10万张。
免责申明:以上内容不构成投资建议,以此作为投资依据出现任何损失不承担任何责任。