英伟达业绩交流0829

营收分析:

 Q2营收达到了300亿美元,环比增长15%,同比增长122%,超出了我们此前280亿美元的预期。首先,数据中心的收入达到了263亿美元,再次创下了记录,环比增长16%,同比增长154%。这主要得益于对NVIDIAHopper GPU计算和我们网络平台的强劲需求。

计算收入同比增长了2.5倍以上,网络收入同比增长了两倍以上。五大服务提供商约占数据中心收入的45%,超过50%的收入来自消费者互联网和企业公司。

客户继续加快对Hopper架构的采购,并准备采用Blackwell架构。推动我们数据中心增长的关键工作负载包括AI模型训练和推理、视频图像和文本数据的前后处理、合成数据生成、AI驱动的推荐系统、SQL和矢量数据库处理等。下一代模型将需要10到20倍的计算能力,并且需要处理更多的数据。预计这一趋势将在未来几个季度继续。我们估计,推理工作负载贡献了超过40%的数据中心收入。云服务提供商、消费者互联网公司和企业都受益于NVIDIA推理平台的强大量和效率。

 

NVIDIA的需求来自前沿模型制造商、消费者互联网服务以及成千上万家正在为消费者、广告、教育、企业、医疗保健和机器人开发生成式AI应用的公司和初创公司。开发人员青睐NVIDIA丰富的生态系统及其在各大云平台中的可用性。鉴于高需求,云服务提供商正在增加其NVIDIA容量。NVIDIA H200平台在第二季度开始增长,开始向大型云服务提供商、消费者互联网公司和企业公司出货。NVIDIA H200基于Hopper架构的强大功能,并提供了超过40%的内存带宽,较H100有显著提升。第二季度,中国市场的数据中心收入环比增长,并且是我们数据中心收入的重要贡献者。作为总数据中心收入的百分比,它仍低于出口管制实施前的水平。我们预计中国市场在未来将非常具有竞争力。

 

最新一轮的MLPerf推理基准测试中,NVIDIA展示了其在推理方面的领导地位,NVIDIA Hopper和Blackwell平台在所有任务上都获得了金牌。在Computex展会上,NVIDIA与顶级计算机制造商一起展示了一系列基于Blackwell架构的系统,以及用于构建AI工厂和数据中心的NVIDIA网络设备。通过NVIDIA MGX模块化参考架构,我们的ODM和OEM合作伙伴正在快速且高效地设计并制造100多种基于Blackwell的系统。NVIDIABlackwell平台集成了多个GPU、CPU、DPU、NVLink和NVLink交换机、网络芯片、系统和NVIDIA的软件,以支持跨行业和国家的下一代AI应用。NVIDIA GB200 NDL72系统配备了第五代NVLink,能够让所有72个GPU像单个GPU一样运行,并为大型语言模型(LLM)工作负载提供高达30倍的推理速度,从而实现对万亿参数模型的实时运行能力。Hopper需求强劲,Blackwell的样品已广泛分发。

 

我们对Blackwell GPU的掩模进行了改进,以提高生产良率。Blackwell生产计划于第四季度开始,并将在2026财年继续。在第四季度,我们预计Blackwell的收入将达到数十亿美元。预计Hopper的出货量将在2025财年下半年增加。Hopper的供应和可用性有所改善,而对Blackwell平台的需求远远超过供应,我们预计这种情况将持续到明年。网络收入环比增长了16%。我们的以太网AI收入(包括SpectrumX和以太网平台)环比翻倍,已有数百个客户采用了我们的以太网产品。Spectrum X得到了OEM和ODM合作伙伴的广泛支持,并被云服务提供商、GPU云提供商和企业采用,包括用于连接全球最大GPU计算集群的XAI。Spectrum X为AI处理提供了超强的以太网性能,相比传统以太网提升了1.6倍。我们计划每年推出新的Spectrum X产品,以支持从今天数万GPU到未来数百万GPU计算集群的扩展需求。Spectrum X预计将在一年内成为数十亿美元的产品线。

 

随着各国认识到AI专长和基础设施对社会和产业的重要性,主权AI的机会继续扩大。日本国家先进工业科学技术研究所正在利用NVIDIA构建其AI桥接云基础设施3.0超级计算机。我们相信,今年主权AI的收入将达到低两位数的数十亿美元。企业AI浪潮已经开始,企业在本季度推动了收入的环比增长。我们与全球100强企业中的大多数公司合作,在全球范围内推动AI计划。各种应用程序正在推动我们的增长,包括AI驱动的聊天机器人、生成式AI助手和智能代理,用于构建新型业务应用并提高员工生产力。医生正在使用NVIDIA生成式AI的智能代理来改善客户体验,并将客户服务成本降低30%。ServiceNow正在使用NVIDIA支持其Now Assist产品,这是该公司增长最快的新产品。SAP正在使用NVIDIA构建其双重助手。雪花公司(Snowflake)每天为超过10,000家企业客户处理超过30亿次查询,并正在与NVIDIA合作构建助手。最后,通用电气(GE)正在使用NVIDIA AI加速生产线的端到端周期时间,缩短了50%。

 

本季度,汽车是关键的增长驱动力,每个开发自动驾驶技术的汽车制造商都在其数据中心使用NVIDIA。汽车行业将在本地和云消费中推动数十亿美元的收入,并随着下一代自动驾驶模型对计算需求的显著增加而增长。医疗保健也正在成为一个数十亿美元的业务,AI正在彻底改变医学影像、手术机器人、患者护理、电子健康记录处理和药物发现。我们在本季度宣布了一项新的NVIDIA AI平台服务,以加速全球企业的生成式AI应用。NVIDIA AI平台的AI生成模块NeMo3.1的发布标志着企业AI的里程碑时刻。企业首次能够利用开源的前沿模型开发定制AI应用程序,将他们的机构知识编码成AI循环,自动化并加速他们的业务。C3.ai是首个采用该服务的公司,用于为其自身使用和客户部署定制的大型语言模型。

 

NVIDIANeMo加速并简化了模型的部署,全球各个行业的公司都在采用,包括医疗保健、能源、金融服务、零售、交通和电信等行业。AT&T在将呼叫转录和分类工作负载迁移到NeMo后,实现了70%的成本节约和8倍的延迟减少。超过150个合作伙伴在AI生态系统的各个层面都在嵌入NeMo。我们还宣布了新的智能代理蓝图(Agent Blueprints),这是一个可定制的参考应用程序目录,包括一整套用于构建和部署企业生成式AI应用程序的软件。通过智能代理蓝图,企业可以随着时间的推移不断完善他们的AI应用程序,创建数据驱动的AI循环。第一个智能代理蓝图包括客户服务、计算机辅助药物发现和企业检索增强生成的工作负载。我们的系统集成商、技术解决方案提供商和系统制造商正在将NVIDIA NeMo智能代理蓝图带给企业用户。NVIDIA NeMo和智能代理蓝图可通过NVIDIA AI企业软件平台使用,该平台势头强劲。我们预计今年年底,NVIDIA软件的收入将达到20亿美元的年运行率,NVIDIA AI企业版显著贡献了增长。

 

在游戏和AI PC领域,游戏收入为28.8亿美元,环比增长9%,同比增长16%。我们看到控制台、笔记本和台式机的收入环比增长,需求强劲并且在增长,渠道库存保持健康。每台RTX PC都是一台AI PC,RTXPC的AI计算能力可达到1,300万亿次运算。现在有超过200款来自领先PC制造商的RTX AI笔记本设计,600款AI驱动的应用程序和游戏,以及1亿台设备的安装基础。RTX将彻底改变消费者体验。我们推出了生成式AI技术套件NVIDIA ACE,适用于RTX AI PC,游戏《突破》(Break)是首款使用NVIDIA ACE的游戏,包括我们的轻量级语言模型Neutron,用于设备上优化推理。NVIDIA的游戏生态系统继续增长,最近新增的RTX和DLSS游戏包括《印第安纳琼斯》、《伟大的循环》、《觉醒》和《龙腾世纪:守护者》。GeForce Now图书馆继续扩展,总目录超过2000个游戏,是任何云游戏服务中内容最丰富的。

 

在专业可视化领域,收入为4.54亿美元,环比增长6%,同比增长20%。AI和图形应用,包括模型微调和Omniverse相关的工作负载,推动了需求增长。汽车和制造业是本季度推动增长的关键垂直行业。公司正在竞相数字化工作流程,以提高其运营效率。全球最大的电子制造商富士康正在使用NVIDIA Omniverse为其生产NVIDIA Blackwell系统的工厂创建数字孪生。几家大型全球企业,包括梅赛德斯-奔驰,已经签署了多年的NVIDIA Omniverse云合约,用于构建工业工厂的数字孪生。我们宣布了新的NVIDIA USD名称和连接器,以将Omniverse开放给新的行业,并使开发人员能够将生成式AI助手和智能代理集成到USD工作负载中,加速他们构建高精度虚拟世界的能力。WPP正在其为可口可乐公司等客户提供的生成式AI支持的内容创建管道中实施USD微服务。

在汽车和机器人领域,收入为3.46亿美元,环比增长5%,同比增长37%。同比增长的驱动因素是新客户品牌在自动驾驶平台上的使用增加,以及对AI驾驶舱解决方案需求的增加。在计算机视觉与模式识别会议上,NVIDIA在端到端自动驾驶类别中获得了自动驾驶挑战赛的冠军,表现超过了全球400多项参赛作品。波士顿动力、比亚迪电子、Figure、Intrinsic、Siemens、SkydioAI和Paradigm Robotics正在使用NVIDIAIsaac机器人平台,用于自主机器人手臂、人形机器人和移动机器人。

 

最后,来看一下损益表的其余部分。GAAP毛利率为75.1%,非GAAP毛利率为75.7%,环比下降,主要由于数据中心内新产品的比例增加以及Blackwell材料的低良率库存拨备。GAAP和非GAAP的运营费用环比增长12%,主要反映了与薪酬相关的成本增加。经营活动产生的现金流为145亿美元。我们在第二季度利用74亿美元的现金回报股东,通过股票回购和支付股息,反映了每股股息的增加。我们的董事会最近批准了500亿美元的股票回购授权,加上第二季度末剩余的75亿美元授权。

接下来,我来介绍第三季度的展望。我们预计总收入为325亿美元,浮动范围为2%。第三季度的收入展望包括了Hopper架构的持续增长以及Blackwell产品的采样。我们预计Blackwell的生产将在第四季度开始增长。GAAP和非GAAP的毛利率预计分别为74.4%和75%,浮动范围为50个基点。随着我们数据中心产品组合继续向新产品转变,我们预计这一趋势将持续到2025财年第四季度。全年毛利率预计将在中段70%的范围内。GAAP和非GAAP的运营费用预计分别为43亿美元和30亿美元。全年运营费用预计将在中高40%范围内增长,随着我们开发下一代产品。GAAP和非GAAP的其他收入和支出预计约为3.5亿美元,包括非附属投资和公开持有的股权证券的收益和损失。GAAP和非GAAP的税率预计为17%,浮动范围为1%,不包括任何离散项目。更详细的财务信息包含在新加坡评论中,其他信息可在我们的网站上查阅。现在我们将开始回答问题,操作员,请帮助我们组织提问。

 

Q&A:

Q:感谢您耐心回答我的问题。在您准备的评论中,轻描淡写地提到Blackwell和GPU屏蔽有一些变化。我很好奇,是否还有其他增量变化,或者在包装或其他方面有任何变化?我记得您提到,尽管设计有所变更,您还是可以出货数十亿美元的Blackwell。这是因为所有这些问题都会得到解决吗?此外,这些变化对整体影响如何?这对您的收入结构意味着什么?我们的客户对此有何反应?

 

A:谢谢你。掩模的更改已经完成,没有必要进行功能性更改。因此,目前我们正在各种系统配置中对Blackwell和Grace Blackwell的功能样品进行采样。大约有100种基于Blackwell的系统已经建成,并在Computex上展示。我们正在让我们的生态系统开始采样这些系统。Blackwell的功能保持不变,我们预计将在第四季度开始生产。

 

Q:你好,非常感谢你回答我的问题。Jenson,我有一个相对长期的问题。正如你所知,市场上关于你们客户的投资回报以及这对未来削减成本的可持续性意味着什么,存在相当激烈的争论。在英伟达内部,你们关注的重点是什么?在评估客户的投资回报时,你们的仪表板上显示的是什么,这对削减成本有何影响?然后,我有一个简短的跟进问题,可能是针对Colette的。我注意到你们全年主权AI的预期有所上调,可能是几个亿左右。是什么推动了这一前景的改善?我们应该如何看待2026财年?谢谢。

 

A:首先,我之前提到的在第四季度开始出货生产时,我指的是出货,而不是开始生产。关于长期问题,让我们回顾一下。你可能听我提到过,我们正在经历两个同时进行的平台转换。第一个是从通用计算向加速计算的过渡。这是因为CPU的扩展已经被证明在一段时间内逐渐放缓,并且现在几乎停滞不前。然而,计算需求却在显著增长,甚至可以估计每年翻倍。如果我们不采取新的方法,计算膨胀将导致每家公司的成本增加,并推高全球数据中心的能源消耗。实际上,你已经看到了答案,那就是加速计算。我们知道加速计算可以加快应用程序的速度,还可以让你在更大规模上进行计算,例如科学模拟或数据库处理。直接的结果是成本降低,能源消耗减少。事实上,本周发布的一篇博客文章介绍了我们提供的一系列新库,这实际上是第一个平台转换的核心,即从通用计算向加速计算的过渡。有人节省90%的计算成本并不罕见,这是因为你将应用程序的速度提高了50倍,因此你可以预期计算成本将显著下降。第二个是通过加速计算实现的,因为我们大幅降低了训练大型语言模型和深度学习的成本。如今,拥有多达数万亿参数的超大规模模型已成为可能,并且可以对世界知识库进行预训练,让模型自己去理解人类语言表达、将知识编码到神经网络中以及学习推理。这引发了生成式AI革命。现在,关于生成式AI,我们深入研究的原因不仅仅是因为它是一项功能或能力,而是因为它是一种全新的软件开发方式。我们不再依赖人类工程的算法,而是依赖数据和AI。我们告诉模型和计算机预期的答案和我们之前的观察,然后由它来找出算法和函数。生成式AI在一定程度上是一种通用的函数近似器,它可以学习几乎任何事物的函数。任何你拥有的数据,任何有结构的东西,任何你有过往示例的事物,它都可以学习。生成式AI是一种全新的计算机科学形式,影响了从CPU到GPU的每一层计算,从人类工程算法到机器学习算法。你现在可以开发出的应用程序类型是非常惊人的。在生成式AI中有几个动态正在发生。首先,前沿模型正在以相当大的规模增长。我们仍然看到扩展的好处,每当你将模型的规模翻倍,你还必须将用于训练的数据集规模增加一倍以上。创建模型所需的计算能力(FLOPS)大幅增加。看到下一代模型需要10、20、40倍于上一代的计算能力并不奇怪。我们必须继续大幅提高代际性能,以降耗和成本。因此,首先是有更大的前沿模型,它们基于更多的模式进行训练。令人惊讶的是,前沿模型的制作者比去年更多。其次,虽然这是冰山一角,但我们看到的是ChatGPT、图像生成器以及代码生成器。我们在英伟达内部广泛使用生成式AI进行编码。现在,除了这些冰山一角的应用之外,还有更大的计算系统。你可能听我之前提到过,推荐系统正在从CPU转移到生成式AI,因此推荐系统、广告生成、大规模广告定制和精准投放、搜索和用户生成内容等这些非常大规模的应用程序现在都已经发展到使用生成式AI了。生成式AI初创公司正在为我们的云合作伙伴创造数百亿美元的云租赁机会,主权AI国家也逐渐意识到他们的数据是他们的自然资源和国家资源,他们必须利用AI建立自己的AI基础设施,以构建自己的数字智能企业。正如Colette早些时候提到的,企业AI也正在兴起,你可能已经看到我们与世界领先的IT公司合作,将NVIDIA AI企业平台推广到全球企业。我们与这些公司合作时,许多公司对提高生产力感到无比兴奋。最后,去年我们看到的重大转变是,现在我们能够通过观看视频和人类演示以及通过从系统中进行强化学习的方式,利用生成的数据来学习物理AI。我们现在几乎可以与每家机器人公司合作,开始考虑并构建通用机器人。因此,你可以看到生成式AI正在多个方向上加速发展。生成式AI的兴起以及世界各国希望拥有自己的生成式AI,这些AI能够融入他们自己的语言、文化和本国的数据。因此,这些模型在各国引起了越来越多的兴趣,并能够为这些国家提供特定的服务。因此,我们确实看到了一些增长的机会正摆在我们面前。

 

Q:在新闻发布会上,她提到对Blackwell的预期非常高,但似乎对铜矿的需求也非常强劲。你们在十月的指引中提到了一个非常强劲的季度表现,而这并不包括Blackwell。那么,你认为这两者的强劲需求会共存多久?你能谈谈向Blackwell过渡的情况吗?你是否看到人们在混合使用集群?或者你认为大多数Blackwell的活动是针对新集群的?能否简单说明一下这一过渡的情况?

 

A:谢谢你的提问。对Hopper的需求确实非常强劲,而对Blackwell的需求也同样令人难以置信。这背后有几个原因。首先,如果你看看全球的云服务提供商,他们目前可用的GPU容量基本上是零。原因在于这些GPU要么被内部部署用于加速他们自己的工作负载,比如数据处理,尽管我们很少谈论数据处理,因为它看起来比较平凡,不像生成图片或文字那样酷炫,但几乎每家公司都在后台处理数据。而英伟达的GPU是唯一能够加速SQL数据、Pandas这样的数据科学工具包以及新的Polars等数据处理的平台。此外,在加速计算方面,目前没有其他选择。其次,租赁市场的需求也很强劲。生成式AI公司把他们大部分的投资资本都用于基础设施建设,以便利用AI帮助他们创建产品。这些公司现在就需要这些基础设施,他们不能等到明年,他们必须今天就开始处理数据。这是Hopper需求强劲的一个原因。另一个原因是对下一个技术高峰的竞赛。第一个到达下一个高峰的公司将推出革命性的新一代AI,而第二个到达的公司只能在现有基础上做一些增量改进。所以,系统性和持续地争取成为第一个达到新高峰的公司,是确立领导地位的关键。英伟达不断在这方面努力,我们通过我们制造的GPU、AI工厂、网络系统和SoC向世界展示我们的领先地位。我们希望始终保持世界最佳的水平,这就是为什么我们对自己要求如此严格。我们也希望看到我们梦想成真的那一天,实现我们想象中的未来能力,以及我们能为社会带来的好处。这些模型制作者的想法也是一样的。他们希望成为世界上最好的,成为世界上第一个实现新突破的公司。尽管Blackwell将在今年年底开始出货,并且规模将达到数十亿美元,但建立起相应的产能可能还需要几周甚至一个月的时间。所以在此期间,生成式AI市场将充满活力,每个人都在急于推进。无论是出于运营需求,还是他们需要加速计算,他们都不再愿意建立更多的通用计算基础设施,即使是最先进的Hopper H200。如果现在要在业务中选择建立CPU基础设施还是Hopper基础设施,决策显而易见。所以,我认为大家都在争相将已有的数万亿美元的基础设施转向现代化的基础设施,而Hopper正是最先进的选择。

 

Q:下午好。你提到的关于投资者讨论的问题让我想回到之前的问题,这个问题涉及到资本支出(CapEx)投资的投资回报率(ROI)。希望我接下来的问题和区分能让事情变得更清楚一些。我在讨论中遇到的一个话题是,关于那些投入大量资金的人,他们希望推动前沿技术,朝着通用人工智能(AGI)的方向发展,如你刚才所说,达到新的能力高峰。为了达到这个能力水平,他们无论如何都会进行投资,因为这为行业和他们的公司打开了许多新的大门。另一方面,也有一些客户今天特别关注资本支出与投资回报率的对比。我不知道这种区分是否清晰,但我只是想了解一下,你如何看待那些在新技术上投入巨资的人的优先事项,他们的投资重点和时间框架是什么?

 

A:谢谢你的提问。那些投资于英伟达基础设施的人正在立即获得回报。这是目前最具投资回报率的计算基础设施投资方式。要理解这一点,最简单的方式可能就是回到基本原理。你有价值1万亿美元的通用计算基础设施,问题是你是否还想建立更多这种基础设施。对于每建立10亿美元的通用CPU基础设施,你可能只能租出去不到10亿美元的回报。而且由于这些基础设施已经很普遍,地面上已经有1万亿美元的此类设施,所以再增加更多的意义是什么?那些急于获取这种新基础设施的人,当他们建立Hopper基础设施,或即将建立的Blackwell基础设施时,他们会开始省钱,因为数据处理会节省大量成本。数据处理已经是其中一个巨大的部分,推荐系统也会节省成本,等等。因此,他们会开始看到巨大的投资回报。其次,他们建立的所有设施都会被租出去,因为有很多公司正在成立,目的是开发生成式AI,他们的容量会立即被租用,其投资回报非常好。第三个原因是他们自己的业务。他们可能希望自己成为下一个前沿的创造者,或者让自己的互联网服务从下一代广告系统、推荐系统或搜索系统中获益。对于他们自己的服务、商店、用户生成内容平台、社交媒体平台等,生成式AI也能带来快速的投资回报。归根结底,这是因为这是目前你能部署的最好的计算基础设施。通用计算世界正在转向加速计算,人类工程的软件正在向生成式AI软件转变。如果你要现代化你的云和数据中心基础设施,使用加速计算和英伟达的技术,这是最好的方式。

 

Q:关于收入增长的趋势,无论是短期还是长期,我知道Colette已经提高了今年的目标。如果我们看看你们的采购承诺和供应义务的增加,这也显示了相当积极的前景。但另一方面,有人认为,似乎并没有那么多客户真正准备好接受液冷技术。虽然我知道有些机架可以使用空气冷却,但这是否在考虑Blackwell的增长方式时需要考虑的问题?然后,我想问一下,当你展望明年时,这显然会是一个很好的年份,但你展望到2026年时,你是否担心其他可能的制约因素,比如电源供应链的问题?或者某个时候模型开始变小了?我想知道你对这些因素的看法。

 

A:谢谢你的问题,Tim。我们可以从后往前谈一下。首先,全球正在从通用计算向加速计算转变,而未来的数据中心将全部采用加速计算技术。过去的数据中心几乎只使用CPU,而未来的每个数据中心都将使用GPU。这是因为我们需要加速工作负载,以保持可持续发展,并继续降低计算成本,从而避免计算膨胀的发生。其次,GPU对于新的计算模式——生成式AI——至关重要。我们都能承认,这将对未来的计算产生深远的影响。因此,未来的基础设施投资将显著不同于过去,未来的基础设施将大幅加速。关于Blackwell的扩展方式,我们提供多种配置,包括使用我们在Volta时期推出的HGX形态的经典Blackwell,这种形态是空气冷却的。而Grace Blackwell则采用液冷。越来越多的数据中心选择液冷,因为液冷可以在功率受限的数据中心中大幅提高AI量,相比过去可以提高3到5倍。液冷更便宜,总拥有成本(TCO)更低,而且液冷还可以让我们利用NVLink扩展到72个Grace Blackwell包,相当于144个GPU的连接。这种低延迟、高量的大型语言模型推理将成为行业的颠覆者。因此,我认为客户对这两种冷却方式都很满意,几乎每个我们合作的云服务提供商都在部署这两种技术。至于明年,我们预计数据中心业务将有显著增长。Blackwell将成为行业的革命性产品,并将在未来几年继续发挥作用。正如我之前提到的,从基本原则出发,计算正在经历两个平台的转换——从通用计算到加速计算,从人类工程软件到人工智能学习软件。这两个转换是未来行业发展的核心。

 

Q:你好,谢谢你。我有两个简短的问题要问Colette。首先,关于之前提到的几亿美元的Blackwell收入,这些是新增的收入吗?你提到预期Hopper的需求在下半年会增强,这是否意味着Hopper的需求将从第三季度到第四季度继续增强,同时Blackwell还会增加几亿美元的收入?第二个问题是关于毛利率的。如果我预期今年的毛利率在70%到75%之间,我应该如何预测第四季度的毛利率?比如在71%到72%之间,你们对毛利率的预期是什么?我们应该如何看待明年随着Blackwell的扩展,毛利率的发展驱动因素?我猜随着产量的增加,库存储备等因素也会有所改善。

 

A:这是Stacey,首先回答你关于Hopper和Blackwell的问题。我们相信Hopper的需求将在下半年继续增长。我们为Hopper准备了许多新产品,现有的Hopper产品也将在接下来的几个季度,特别是第三季度和第四季度,继续扩展。因此,相较于上半年,Hopper在下半年是一个增长机会。此外,Blackwell将在第四季度开始扩展,因此这两个方面的组合应该能够帮助你理解我们的预期。关于第二个问题,我们在第三季度提供的毛利率预测是非GAAP毛利率大约为75%。尽管我们正在经历一些过渡期和新产品的推出,但我们仍然相信能够在第三季度实现75%的毛利率。对于全年,我们也预计毛利率将在中段70%或大约75%的水平。第四季度可能会出现一些微小的变化,主要是由于我们正在进行的过渡期和新产品的不同成本结构。不过,你提到的数字可能比我们的预期要低一些,我们没有提供确切的指导,但我认为你的预期比我们的要保守一些。

 

Q:感谢你。Jensen和Colette,我想问一下地理分布的问题。数据显示,美国的收入环比下降,而一些亚洲地区的收入环比大幅上升。我想了解一下这背后的动态,特别是中国市场表现非常好,你在发言中也提到了这一点。能否详细说明一下这些因素的影响?另外,我想从Stacey的问题中确认一下,鉴于这些有利的收入动态,这是否意味着公司在第四季度的整体收入环比增长速度会加快?谢谢。

 

A:让我解释一下我们在披露地理分布数据时遇到的一些挑战。我们需要提供关于销售对象或开票对象的关键信息,但这些信息并不一定反映最终产品的目的地或最终客户所在的位置。你所看到的披露主要是关于我们开票的对象,而这些产品可能最终会通过OEM(原始设备制造商)、ODM(原始设计制造商)或系统集成商,进入数据中心、笔记本电脑等设备。这种转移有时会发生变化。确实,中国市场的表现非常引人注目,但要记住,这些数字不仅包括游戏行业,还包括数据中心和汽车行业。回到你关于毛利率的问题,我们目前看到Hopper和Blackwell的收入增长预期仍然强劲,尤其是在下半年。尽管我们还没有对第四季度的具体指导,但目前的需求预期和可见性表明,第四季度将是一个增长机会。此外,我们还将引入Blackwell架构,这将进一步推动增长。

 

Q:下午好,谢谢你提出的问题。你提到,我们已经开始了一个显著的年度产品增长,而挑战也可能会越来越大,尤其是在复杂性增加和先进封装技术逐渐成为主流的背景下。如果我们退一步来看,这种背景如何改变了你们对更大程度的垂直整合、供应链合作伙伴关系的思考?并且这些改变可能对你们的利润率和整体财务状况产生什么样的影响?谢谢。

 

A:谢谢你的问题。首先,之所以我们能保持如此高的速度,是因为我们同时在面对模型复杂性的增长和持续降低成本的需求。随着模型的规模不断扩大,我们相信,通过继续扩展AI模型,我们将达到一个非凡的实用性水平,并开启下一次工业革命。我们坚定地相信这一点,并将继续努力推动这一进程。我们有一个相当独特的能力,能够整合并设计AI工厂,因为我们掌握了所有必要的部件。如果没有这些部件,每年推出一个新的AI工厂几乎是不可能的。明年,我们将推出更多的CPU、GPU以及NVLink交换机、CX DPU(用于东西向连接)、BlueField DPU(用于南北向和数据存储处理)、InfiniBand(用于超级计算中心)和以太网产品。我们正在将AI引入以太网,并且这已经成为我们一个即将突破数十亿美元的业务。由于我们拥有这些资源和一个统一的架构栈,我们能够在完成新能力的开发后迅速将其推向市场。否则,如果只是单独出货这些部件,还需要找到客户来销售,然后再有人去构建AI工厂,这个过程会变得非常复杂。我们非常喜欢供应链的这种分散性,这让我们能够服务于广达、富士康、惠普戴尔、联想、超微等公司,甚至以前还能够服务于中兴(尽管他们最近被收购了)。我们拥有大量的生态系统合作伙伴,比如技嘉、华硕等,这些合作伙伴能够将我们的架构集成到世界各地的云服务提供商和企业数据中心中。我们的ODM和系统集成商的供应链非常庞大,因为世界的需求也是巨大的。而我们专注于设计AI基础设施,并以客户希望的方式提供,让生态系统去集成。因此,我们能够在这个过程中保持快速发展。

 

Q:谢谢你回答我的问题。我想回到Blackwell产品周期。我们经常被问到的一个问题是,你们如何看待机架规模系统的混合动态?在考虑利用NVLink和GB NDL 72的情况下,市场推广的动态是怎样的?特别是就Blackwell产品周期而言。具体来说,当我们开始考虑Blackwell周期的发展时,你们如何看待机架规模系统的这种混合?

 

A:关于Blackwell机架系统,它被设计和架构为一个机架系统,但它是以分解后的系统组件形式出售的。我们不直接销售整套机架系统,这是因为每个客户的机架配置都略有不同。令人惊讶的是,有些机架符合OCP(开放计算项目)标准,而有些则不符合。有些是企业级的,大家的功率限制也可能有所不同,选择的电源总线条、配置以及与各个数据中心的集成方式都不同。我们设计的方式是对整个机架进行架构,软件将在整个机架上完美运行。然后我们提供系统组件,比如CPU和GPU计算板,它们被集成到一个模块化系统架构中,称为MGX。MGX非常巧妙,我们在全球范围内拥有MGX的ODM(原始设计制造商)、集成商和OEM(原始设备制造商)合作伙伴。因此,无论你希望以何种配置交付这个3,000英镑的机架,它都必须接近数据中心进行集成和组装,因为它相当沉重。从我们开始运输GPU、CPU、交换机等部件那一刻起,集成工作就会在接近云服务提供商(CSP)和数据中心的位置完成。你可以想象全球有多少数据中心,以及我们与ODM合作伙伴一起扩展了多少物流枢纽。因为我们展示的是一个完整的机架,并且总是以这种方式呈现,因此可能给人留下了我们在做集成的印象。事实上,客户不希望我们做集成工作,供应链也不希望我们做集成工作,他们希望自己来做集成,因为这是他们的增值服务。最终设计虽然不像将设备直接移入大型数据中心那样简单,但设计的适配确实非常复杂。安装、设计适配、部署、维修和更换整个生命周期的工作都是在全球范围内完成的。我们拥有广泛的ODM和OEM合作伙伴网络,他们在这方面表现得非常出色。因此,集成并不是我们做机架的原因,反而是我们避免做机架集成的原因。我们不想成为集成商,而是希望成为技术提供商。现在我将把通话交还给Jensen,以便做出总结发言。

 

总结:

谢谢。让我再重复一下我之前提到的几点。目前,全球的数据中心正全力以赴,通过加速计算和生成式AI来实现整个计算堆栈的现代化。Hopper的需求依然强劲,而对Blackwell的期待也非常高。让我强调公司目前的五个关键点。首先,加速计算已经达到了临界点。随着CPU扩展速度放缓,开发者必须尽可能加速一切。加速计算的基础是CUDA库,新库的发布为NVIDIA开辟了新的市场。我们发布了许多新的库,包括CUDA加速的Polars、Pandas和Spark,这些是领先的数据科学和数据处理库。还有针对矢量产品的QVS数据库,这在目前非常热门。我们还推出了Ariel和Fiona,用于5G无线基站,现在我们可以进入整个数据中心世界。还有Pair of Bricks用于基因测序,AlphaFold 2用于蛋白质结构预测,这些现在都可以通过CUDA加速。我们刚刚开始将价值1万亿美元的数据中心从通用计算转变为加速计算的旅程。这是第一个重点。第二,Blackwell相较于Hopper是一个跃升的台阶。Blackwell不仅仅是一个GPU,它是一个AI基础设施平台。随着我们向合作伙伴和客户展示更多Blackwell的细节并提供样机,Blackwell的领先优势将变得更加明显。Blackwell的愿景花费了将近5年时间和71种独特芯片来实现,包括GrayCPU、Blackwell双GPU协作封装、用于东西向流量的ConnectX DPU、用于南北向和存储流量的BlueField DPU、用于所有GPU通信的NVLink交换机,以及支持AI大规模突发流量的Quantum和Spectrum X(适用于InfiniBand和以太网)。Blackwell AI工厂是按建筑规模设计的计算机。NVIDIA设计并优化了Blackwell平台,从芯片、系统、网络到结构电缆、供电和冷却,以及大量的软件,全部堆栈的端到端优化,使客户能够快速构建AI工厂。这些基础设施的资本投入非常巨大,客户希望尽快部署并获得最佳性能和总拥有成本(TCO)。Blackwell在功率受限的数据中心中,提供的AI量是Hopper的3到5倍。第三,NVLink是一个非常重要的进展。它是一个全GPU互联交换机,改变了游戏规则。Blackwell系统允许我们将144个GPU连接在72个GB200封装中,形成一个统一的NVLink域,总带宽达259TB/s,相比Hopper高出约10倍。这对多万亿参数模型在数万亿个tokens上进行训练非常重要,因为需要大量的数据在GPU之间传输,以进行推理。NVLink对于低延迟、高量的大型语言模型token生成至关重要。我们现在有三种网络平台:用于GPU扩展的NVLink、用于超级计算和专用AI工厂的Quantum InfiniBand,以及用于AI互联网的Spectrum X。由于网络的覆盖范围比以前大得多,生成式AI的势头正在加速。AI前沿模型制造商正在竞相扩展到下一个AI高峰,以提高模型的安全性和智商。我们也在扩展,理解从文本、图像和视频到3D物理、化学和生物学的多种模式。聊天机器人、代码AI和图像生成器的增长迅速,但这只是冰山一角。互联网服务正在部署生成式AI,用于大规模推荐系统、广告定位和搜索系统。AI初创公司每年消耗云服务提供商数百亿美元的云容量。各国也在认识到AI的重要性,并投资于主权AI基础设施。NVIDIA On-Demand正在开启AI通用机器人时代。现在,企业AI浪潮已经开始。我们准备帮助公司转型。NVIDIA AI企业平台包括NeMo、BioNeMo、NVIDIA Agent、Blueprints和AI Foundry,我们的生态系统合作伙伴和全球领先的IT公司使用这些工具帮助客户定制AI模型并构建专用AI应用。企业可以在NVIDIAAI企业运行时部署这些应用,每年每个GPU的费用为4500美元,NVIDIA AI企业是部署AI的极具价值的选择。随着CUDA兼容的GPU安装基数从数百万增长到数千万,NVIDIA软件的市场总额(TAM)可能会显著增加。正如Colette提到的,NVIDIA软件的年收入将在年底达到20亿美元的运行率。感谢大家今天的参与。

 

作者声明:内容由AI生成
追加内容

本文作者可以追加内容哦 !