东方证券计算机行业研究:推理微服务NIM,英伟达的The next big thing

Scaling law持续有效,大模型的迭代有望持续带来大量算力需求,英伟达业绩再创新高,占全球AI芯片市场九成。近年来,生成式AI需求快速增长,推动AI芯片市场规模迅速扩大。据Gartner预测,2025年全球AI芯片收入总额有望达到919.55亿美元。作为人工智能领域的领导者,英伟达(NVIDIA)在全球人工智能芯片市场的市占率达到了九成。FY25Q1,英伟达业绩继续超预期,营收、净利润创新高。英伟达在大模型的开发训练方面有着深厚积累,使得其在这波AI浪潮中成为“卖铲子”的龙头企业。公司数据中心业务持续增长,FY25Q1,英伟达数据中心业务实现营收226亿美元,同比增长427%,数据中心业务占到所有业务收入的87%。

英伟达在训练算力领域的绝对优势,得益于其硬件的持续迭代和其CUDA生态的持续完善。面向模型开发者,英伟达能够提供以AI芯片、网络为基础的性能卓越的硬件,以及CUDA为主的完善的软件生态。多年来,英伟达AI芯片不断迭代,且算力呈指数增长,在八年间算力增长了1000倍。英伟达的加速计算平台性能突出,生态环境优异。自2006年面世以来,CUDA持续更新迭代新版本,功能持续优化,性能持续提升,相较于ROCm等生态也更加成熟稳定,成为英伟达最大的护城河之一。

推理占比逐步提升,AI应用有望迎来爆发。据英伟达2024财年Q4的电话会披露,公司全年的数据中心收入里已经有40%来自推理业务,未来推理端算力需求将占据主导地位。类比移动互联网时代,AI应用还需要一定时间探索产品形态,2B应用会是最先突破的方向。随着AI推理成本下降和模型性能提升,根据云计算市场的发展经验,我们认为最接近最终客户的应用层肯定是价值最大的环节。长期看,AI应用的市场规模广阔。

英伟达发布NIM微服务,加速AI企业端部署。 NIM的全称为Nvidia InferenceMicroservice,即英伟达推理微服务,是Nvidia AI Enterprise的一部分,可以帮助客户快速部署产品级AI大模型应用。NIM实际上是一种容器化的部署工具,包含了行业标准 API、特定领域的代码、优化的推理引擎以及对于自定义模型的支持。相比于直接开发部署,NIM的部署时间大幅缩短。目前已有数百家生态系统合作伙伴嵌入了NIM。除了基础的AI模型都和NIM进行了适配加速外,一些行业巨头企业也已经开始使用NIM来加强自身的生成式AI应用,涉及制造业、医疗、金融服务零售、客户服务等领域。

NIM的推出为英伟达在企业软件服务领域的发展再次加码。英伟达通过将AI领域的开发和部署软件微服务化,加速企业的生成式AI应用开发与部署。NIM是数据驱动的推理核心,NVAIE则包含了整个AI开发全链条工具,如RAG、数据清洗、抗压测试等。通过提前针对模型、CUDA等做好优化,让企业用户无需深入了解技术,也能做出满足企业需求的AI应用,让用户的注意力更加聚焦于如何用AI去解决业务场景中的问题,而不是去担心硬件和模型。

风险提示:投资人应当认真阅读《基金合同》、《招募说明书》等基金法律文件,了解基金的风险收益特征,并根据自身的投资目的、投资期限、投资经验、资产状况等判断基金是否和投资人的风险承受能力相适应。基金的过往业绩并不预示其未来表现,基金管理人管理的其他基金的业绩并不构成基金业绩表现的保证。基金有风险,投资需谨慎。

免责声明:转载内容来自机构研报摘要、公开权威媒体报道,仅供读者参考,版权归原作者所有,内容为作者个人观点,版权归原作者(机构研究员、媒体记者)所有,内容仅代表作者个人观点,与建信基金管理有限公司无关;不作为对上述所涉行业及相关股票、基金的推荐,也不构成投资建议。对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本公司不作任何保证或承诺,请读者仅作参考。如需购买相关基金产品,请关注投资者适当性管理相关规定,做好风险评测,选择与之相匹配风险等级的产品。本文只提供参考并不构成任何投资及应用建议。如您认为本文对您的知识产权造成了侵害,请立即告知,我们将在第一时间处理。

#计算机八白马入围MSCI#$建信互联网+产业升级股票(OTCFUND|001396)$

追加内容

本文作者可以追加内容哦 !