过去两年,市场叙事高度聚焦于英伟达代表的算力芯片,估值溢价几乎完全由参数规模与训练效率驱动。但进入2026年,一个清晰的变化是:资金开始从"算力本身"转向"算力能否被有效调度与利用"。

行业信号已经足够密集:Lumentum披露800G/1.6T光模块订单排产可能提前锁定至2028年,且被头部云厂商以数十亿美元级别预付产能;服务器DRAM与 enterprise NAND价格在2026年一季度分别录得89%与78%的环比涨幅;而光模块、交换芯片与存储控制器的目标市场规模,被多家投行同步上修至2028年超过1400亿美元。

更值得注意的资金行为是:在财报密集披露前夕,机构配置重心正从GPU与AI服务器本体,优先转向"供不应求"的组件层。这意味着,AI投资的核心矛盾已从"算力是否增长",转向"哪些环节成为算力扩张的约束条件"。当约束被确认,定价权也随之转移。

算力不再稀缺,真正稀缺的是"把算力用满的能力"

AI产业的第一阶段,围绕算力芯片展开。

英伟达的Hopper架构、Google的TPU v5、AMD的MI300系列,共同构建了训练与推理的算力基座,推动模型参数从千亿级迈向万亿级。但进入2026年,一个变化逐渐显性化:算力本身不再是唯一瓶颈。

随着超大规模集群从数千卡扩展至数万卡甚至十万卡,问题开始转向"数据如何在这些芯片之间高效流动"。训练效率不再由单卡峰值性能决定,而由网络带宽、通信延迟、能效比与拓扑结构共同决定。

换句话说,算力的边际提升正在被"互连能力"限制。这正是博通、Coherent、Lumentum在OFC 2026集中强调1.6T/3.2T光模块与CPO(共封装光学)技术路线的原因。当电信号传输在功耗与散热上逼近物理极限,光互连从"可选项"变为"必选项"。技术路线的收敛,本质上反映的是产业对同一瓶颈的共识。

与此同时,另一条约束链条也在强化:存储。无论是HBM为GPU提供高带宽内存,还是企业级NAND与HDD承接训练数据与推理缓存,存储已经从"配套资源"变成"核心约束"。

TrendForce数据显示,服务器DRAM价格在2026年一季度创纪录上涨,而供需错配预计延续至2028年前后。背后的驱动因素并非传统消费电子周期的回暖,而是AI数据中心对内存带宽与容量的刚性需求。以HBM3E为例,单颗封装容量已突破48GB,带宽超过1.2TB/s,但其产能受限于TSV(硅通孔)工艺良率与CoWoS封装产能,短期难以快速扩张。

这一阶段的关键变化可以用一句话概括:

AI不再缺算力,但缺"把算力用满的能力"。当集群规模突破临界点,任何一个环节的短板——无论是光模块的端口密度、交换芯片的量,还是存储的访问延迟——都会被迅速放大成系统级瓶颈。

资本市场的评估焦点,自然从"峰值算力"转向"有效算力"。

价格暴涨不是周期,而是定价权的重新分配

如果用传统半导体周期去解释当前的存储与光模块涨价,很容易低估其持续性。

以存储为例,过去DRAM与NAND的价格波动,本质上由消费电子驱动,需求具有明显周期性与价格弹性。但AI数据中心的需求具备完全不同的特征:规模更大、粘性更强、对性能要求更高。

HBM甚至已经从"高端产品"变成"必需品"。当大模型训练对内存带宽的需求呈指数级增长,而供给侧受制于先进封装产能与材料良率,价格弹性便让位于供给刚性。这也是为什么希捷推动40TB HAMR技术、西部数据出现极端级别重估。价格上涨背后,是供给侧的克制与需求侧的刚性共同作用。

光互连领域的逻辑更为直接。随着AI集群规模扩大,传统铜缆方案在功耗与散热上的问题迅速放大。当单机柜功耗突破100kW,电信号传输的损耗与发热成为不可接受的系统负担,迫使行业转向光学方案。

这种替代不是渐进式,而是"非用不可"。一旦进入这个阶段,供应商获得的不是订单增长,而是技术路径锁定带来的定价权。以800G光模块为例,其核心组件——高速激光器、调制器、探测器——的供应商高度集中,且认证周期长达12-18个月。这种"慢认证+高粘性"的特征,使上游供应商在产业链中拥有隐性议价权。

法巴银行上调光模块、交换芯片与存储控制器目标价,本质上是在反映这种结构性变化。市场的分歧也集中在这里:一部分投资者仍然把当前行情视为"半导体周期复苏";另一部分已经开始按"基础设施稀缺资源"重新定价。两种定价框架,对应的是完全不同的估值上限。前者关注季度出货量与库存周期,后者关注技术壁垒与产能锁定能力。

资金正在迁移:从"核心芯片"到"关键约束"

如果观察近期资金流向,会发现一个微妙但重要的变化:AI投资正在从最显眼的环节,转向最紧缺的环节。

GPU与AI服务器依然是行业核心,但其增长路径已经被市场充分定价;而光互连与存储链条,则因为长期被视为"配套",在估值上存在明显滞后。

法巴银行给出的推荐名单——Arista Networks、Fabrinet、Ciena,以及Marvell Technology、Credo Technology等——本质上都是围绕"数据如何流动与存储"这一核心问题展开。

更深层的逻辑在于:AI产业链正在形成新的"瓶颈轮动"。第一阶段瓶颈:算力芯片,由英伟达等主导;第二阶段瓶颈:网络与互连,由光模块、交换芯片、连接器等构成;第三阶段瓶颈:数据存储与管理,涉及HBM、企业级SSD、存储控制器与数据编排软件。每一次瓶颈切换,都会带来一轮估值重排。当前共识正在逐步形成:光互连与存储,就是这一轮的核心约束。

对于投资者而言,关键不在于找到"最热门的公司",而是识别下一轮瓶颈所在的位置。

这需要跳出单一财务指标,关注技术路线的收敛速度、产能扩张的资本开支强度、以及客户结构的集中度。例如,当头部云厂商开始以长期协议锁定光模块产能,当存储原厂将更多晶圆产能分配给HBM而非消费级产品,这些微观信号往往比宏观叙事更早指向定价权的转移。

效率的定价权:当瓶颈成为资产

AI投资的叙事正在发生微调。算力仍然重要,但不再是唯一焦点。随着集群规模持续扩大,任何一个环节的短板,都会被迅速放大成系统级瓶颈。光互连解决的是"数据如何流动",存储解决的是"数据如何承载",它们共同决定了算力能否真正转化为生产力。

这也是为什么资本开始重新分配权重。过去两年,市场为"算力上限"付费;而现在,市场开始为"系统效率"付费。谁掌握效率的瓶颈,谁就掌握下一阶段的定价权。

真正的洞见在于:当技术演进从"单点突破"转向"系统协同",投资逻辑也必须从"寻找最强"转向"识别最缺"。在算力扩张的军备竞赛中,最终沉淀利润的,往往不是站在聚光灯下的芯片设计者,而是那些默默解决数据流动与存储约束的基础设施提供者。效率的瓶颈,正在成为新的资产。


追加内容

本文作者可以追加内容哦 !