热门资讯> 正文
2025-09-21 19:23
(来源:君实财经)
另一份OCS交换机的专家纪要
谷歌最新发布的TPUV7这一代产品OCS甚至可以支持9216个TPU的一个scale up组
网。明年谷歌的需求我们看到的话,保守估计会达到2.5万套。如果GPU上量超预期,甚至OCS还有需求追加的这样一个可能性。
谷歌在AI里面它实际上是做了大量的关于流量端口流量的一些规划。甚至说跟他的算法芯片设计都做了深度的适配。所以能够规避掉这种数据端口频繁切换的这样一些问题,充分发挥OCS的优势。所以我们乐观地认为,谷歌的这种垂直整合的方式,从芯片到算法到OCS交换机的使用,他是有着比较深的技术积累。
根据我们对目前OCS的这样一个发展趋势来判断,2030年之前OCS的市场规模会超过20亿美金。同时它的一个需求量在当前一点几万没一点几万台的基础上,会增长到至少5万台。远期空间我们甚至看到随着OCS的这样一个切换,时延从毫秒级到微秒级,甚至未来纳秒级的话,可以直接替换电交换机。它的空间可以达到现在数据中心电交换机的30%左右的一个市场占比。而目前在数据中心里面,电交换机的市场规模大概在80到100万台。对OCS的一个交换机的理论空间可以达到30万台这个级别。
OCS内部用到很多的这种包括棱镜、转直透镜、暗摄像、分光线隔离器这些产品的话,国内的光器件的上市公司。有非常强的这样一个定制开发的能力。实际上是可以为lumemtum,coherent甚至谷歌定制这样一些光交换机用的光器件。另外还有像这个mems方案里面的核心的mems芯片。国内也有相关的厂商具备这方面的制造和加工能力。甚至说谷歌的这个mems芯片就是国内的这家厂商的子公司来进行代工的。
单片mems芯片目前的成本甚至达到3000美金,一台OCS里面需要用两个,也就是6000美金的价值量。对随着国内国外这种OCS的放量,我们看到的就是说OCS内部的这些器件都是属于门槛较高。价格较高,毛利也较高的这样一些产品,会给国内的一些相关产业链上的上市公司带来比较大的业绩提升。
国内碧韧科技也发布了基于OCS的这样一个超节点互联方案。这个的话在今年就可以实现两千卡的一个OCS互联。从规模上来讲,那肯定还是弱于谷歌的这种4096或者说9216这样一个大几千卡的这样一个规模组网能力。但至少这也是代表国内的这样一个发展的这样一个趋势。在AI的scale up网络里面,国内也会尝试用OCS来进行组网。用OCS来进行组网的优势。就是说大家经
常也能看到的宣传的就是说OCS它是基于光的通道来切换,或者说是基于物理层的这样一个通道。它跟每个GPU的这样一个接口协议助理都不相关。所以OCS实际上是一个非常好的这种对协议透明,对传输速率透明。兼容性非常好的这样一个互联产品。理论上它可以针对国内这种GPU的这种生态比较分散,比较杂的这种情况。它是一个非常好的这种应用。
这个跟海外的GPU都是英伟达来主导的不一样。所以英伟达它目前重点在AI网络里面,是特别是第二网络里面,他会当前选择的是铜缆互联。未来它也会优先发展GPU的这个技术来做scale up互联。
但是国内我们说认为是有可能会走出一条不一样的路,会用OCS来进行scale up的互联。因为它的兼容性更好,它无视不同GPU厂商的这种速率协议这方面的差异。所以是一个更加开放,更加兼容的这样一个选择。这个是我非常看好,也是认为未来OCS发展最大的这样一个潜在市场。特别是国内你像华为联合光讯科技在做的这种mems OCS方案,或许很快就会用在这种更大规模的scae up主网上。因为大家有关注到今天华为就是有发布它的最新的这种叫万卡互联的超节点规模,这个发展还是非常快的。将来超节点的这样一个规模越大,实际上用OCS的这种互联的这样一个机会就会越多。因为OCS的特点就是说时延非常短,功耗非常低。而且可以对故障的这样一个GPU和设备进行隔离,可以切换。这三个点都是scare up网络的一个核心诉求。那么时延低,因为有统计数据表明,scale up网络里面这个时延要求是在一个微秒以内。如果整个网络数据传输的时间每增加一微秒,GPU的利用率就会下降一两个点对吧?所以scale up网络最关注的实际上就是时延。
scale out网络其实更关注的反而是带宽是吧?带宽要足够大。我们现在OCS主要是受限于端口,端口数量现在还比较少。所以从总带宽上来比,它并不能比这个电交换机枪。但是在时延和功耗上,它是具有绝对的这种领先优势的,非常适合scle up网络的一个组网。目前的话之所以还没有大规模上量,主要是因为大家在scale up的超节点的规模上,目前还相对较小。
关于CPO和光模块
CPO这边,它跟光模块的差异是说CPO是高度定制的。高度定制的就是需要跟交换机的厂商和芯片设计要去做深度的协同开发的匹配。所以现在我们看到,包括中际旭创华工科技,他们展示的更多的是说他们在CPO光引擎封装这一块的能力,而不是说真正的终端的一个可以上样的一个产品。
我们一直强调CPO实际上是一个封闭的生态,甚至说是一个贵族俱乐部。除了你自己要有这样一个能力去做相关的器件和产品以外,你还得有配套的这种客户资源和客户认证的这样一个机会。而且目前的CPO的话,即使国内的中兴、华为都在做一些研究,但是受限于CPO需要这种高制程的,比如说三纳米、5纳米的这样一些交换芯片去配套开发。国内包括华为受限于这样一个制程限制,没办法去制造这种先进芯片。所以国内CPO的这个交换机设备应该来说还是受制于海外的。我们看到包括新华三、锐捷都陆续开发了CPO交换机,但这里面基本上是用到了全套是博通的这个芯片方案。所以如果要看CPO的话,我是建议重点关注海外的产业链。海外产业链里面重点就看博通和英伟达他们的CPO产品里有哪些部件是国内厂商有参与的
谈谈对Google OCS的看法…
为什么要用OCS?
Google 推 OCS,是因为 AI 集群流量是“大规模、长持续时间、规律性强”的典型光路适配型流量,比如AI训练过程中的AllReduce通信操作。OCS 通过直通光路 + 可重构拓扑,大幅降低功耗和CAPEX,提高带宽利用率和吞吐,对超大规模 AI 数据中心至关重要。但要注意 OCS 不适合小粒度、随机流量,理由这里先不讲。
换句话说,就是AI大模型范式定了之后,搞OCS带宽更高,功耗更低,花费更少。
为什么过去OCS不可以,现在可以了?
首先,MEMS(Micro-Electro-Mechanical Systems,可控微镜)型光路交换机的切换速度存在天然瓶颈。目前业界主流的 3D-MEMS OCS,其镜面旋转与稳定过程通常需要 10–20 毫秒,在大规模部署中,由于还需等待控制收敛、收发器重新锁定、功率均衡等过程,端到端切换延迟往往达到 数十到数百毫秒,甚至秒级。
这种时间尺度远慢于电子交换机的微纳秒级转发能力,因此 MEMS OCS 无法有效应对微突发流量。在实际运行中,当通信模式发生变化,需要新的节点对之间建立光路时,MEMS 微镜必须先完成机械动作并重新对准目标光纤。这意味着,在此期间,其他依赖该链路的通信都会被迫阻塞,直到光路重新建立,整个通信过程才能继续。
这一过程可以类比为早期的电话交换台:在没有自动化交换机之前,每一通电话都需要接线员人工插拔线缆来完成转接。对于少量、长时间的通话尚能接受,但如果是一个大规模人群同时相互拨打电话,每次都要依赖接线员逐一手动连线,那么系统的效率就会严重受限,等待时间极长。
同理,如果通信模式频繁变化,而 OCS 每次重构都需要几十毫秒甚至更长,整个系统就会出现明显的性能空窗期。这就是为什么当前 OCS 更适合承载长持续时间、大带宽、可预测的流量(如大模型训练中的 AllReduce、参数同步),而不适合短小突发通信。
其次,OCS的调度复杂,需要与上层调度器协调,预测流量,否则光路可能闲置。与电子交换机不同,OCS 不具备微秒级的快速转发与动态路由功能,而是需要提前规划并建立端到端光路,这意味着 OCS 的带宽利用率高度依赖于流量预测与调度策略。换句话说,OCS 就像高铁,必须提前编好车次、排好线路,才能高效运送大规模客流。如果乘客(流量)临时改变计划,而高铁(光路)已经排定,那就会出现空车或乘客拥堵的情况。
明白了以上两点,也就明白了为什么这么多年Google OCS一直不愠不火的原因。但是大家也可以看出,如果大模型范式基本固定下来,也就是通信模式固定,不需要频繁调整MEMS,采用OCS就是非常合适的。
很多人会担心OCS会不会消灭光模块,一定是不会,因为节点端缺少光存储,无法直接完成光计算,这也就是意味着想要借助光子传输数据必然要进行电-光转换,也就是要用到光模块。但是在单个AI数据中心集群固定规模的前提下,OCS 一般意义上是会减少光模块用量的。因为减少了多余的电交换层,每一层传统交换机之间的互连,都要通过光模块完成光-电-光转换。现在是通过OCS的光数据不需要进行光-电-光转换,可以直接进行光数据转发。具体可以看下图,a是传统的电交换,红色箭头处需要使用光模块进行光-电-光转换,而b则是OCS,蓝色箭头处不需要使用光模块进行光-电-光转换。
此外,为了适应 OCS + WDM 光路,光模块必须支持更高光谱效率、更低损耗和更快调制。换句话说,会推动光模块向更高速率(800G、1.6T)、更先进工艺(SiPh、CPO)演进。其实没有OCS,因为计算通信比的牵引,光模块也是朝着更快速率,更先进工艺前进的,这下只是叙事助力而已。至于产业链直接受益,国内就是TJKJ(发射/接收模组、环行器、波分复用器等)、JGKJ(MEMS微透镜阵列)、GKKJ(MEMS光开关)等等。剩下的大家根据逻辑,自行挖掘一下,应该很简单。Google朝着4万亿越来越近了,明确地表达,对应的涨势,国内的Google链同步涨势如虹