DeepSeek 引发投资者对人工智能支出势头的担忧;过往创新周期表明,效率 / 技术提升将推动进一步的应用 / 创新
上周 DeepSeek R1 推出后,鉴于该公司声称其模型在训练成本效率方面的表现,投资者对人工智能半导体支出的中长期影响表示担忧。据该公司称,DeepSeek V3 模型的训练成本约为 560 万美元,显著低于那些前沿基础模型的训练成本,这表明了人工智能训练的可持续性。尽管 DeepSeek 的训练成本效率令人印象深刻,但仍存在未解答的问题,包括 R1 的完整训练成本(如先前模型训练 / 研发 / 开发 / 优化的成本),以及对更早开发的开源基础模型(如 Meta 的开源 Llama 模型)的依赖程度。我们认为,在得出结论之前,验证这些成本至关重要,因为训练数据集、“预训练” 优化、尚未使用的方法以及其他历史上推动效率提升的因素的具体情况尚未披露。
新技术创新周期(尤其是计算效率方面)推动了需求的增加(杰文斯悖论),这导致了半导体价值的提升 / 需求的激增。例如,21 世纪初的 x86 服务器虚拟化(推动了对 CPU、内存 / 存储的更高需求),智能手机和物联网中的 ARM 采用(推动了对更多移动 / 物联网产品的需求),以及早期的云采用(推动了对计算、网络、存储的更高需求),所有这些都导致了对计算 / 网络 / 内存 / 硅的需求增加。
对于人工智能,DeepSeek 展示的效率提升将推动采用 / 扩展,向左侧(更快采用)转移(见图 1),并在未来几个月 / 几年内为人工智能半导体解决方案创造更快的增长速度。此外,鉴于早期人工智能创新在 LLMs 中引发了新的基础人工智能模型(如英伟达用于物理人工智能的 WFM)的创新,我们预计将为人工智能解锁更多的用例。
除了基础模型和软件优化之外,我们认为仍然有很大的机会通过内部开发的定制 ASIC 解决方案来解锁半导体的差异化和效率,而不是采用现成的商用 GPU。随着云服务提供商和超大规模企业构建更大的训练 / 推理集群,我们认为这一趋势将有利于博通和 Marvell 等定制 ASIC 供应商,因为它们在成本和性能方面具有优势。底部线是我们的评级保持不变;我们将利用新的机会重新配置我们在 AVGO、MRVL 和其他公司的超配头寸。
本文作者可以追加内容哦 !