周三,英伟达公布了25财年Q2财报,营收300亿。笔者整理了英伟达业绩电话会全文内容,分享给各位大佬们!$英伟达(NASDAQ|NVDA)$ #英伟达财报超预期,股价却意外闪崩##【悬赏】2024中报来袭,谁的表现更胜一筹?#

发言人1   00:00

与证券交易委员会组成8k。他们所有的陈述都是根据我们目前获得的信息于2024年8月28日做出的,除非法律要求,否则我们不承担更新任何此类陈述的义务。在本次通话中,我们将讨论非公认会计准则的财务措施。您可以在我们的财务科评论中找到这些非公认会计准则财务措施与GAAP财务措施的对账,该评论发布在我们的网站上。

发言人1   00:33

让我强调一下即将到来的金融界活动。我们将参加9月11日在旧金山举行的高盛commu Copia和技术大会,因为Jensen将参加主题演讲炉边聊天,我们讨论2025财年第三季度业绩的业绩电话会议计划于2024年11月20日星期三举行。有了这个,让我把电话转到科莱特。

发言人2   01:00

感谢Stuart Q2季度收入再创纪录,达到300亿美元,环比增长15%,同比增长122%,远高于我们的280亿美元的预期。

发言人2   01:15

从数据中心收入263亿美元开始,环比增长16%,同比增长154%,受到英伟达GPU计算和我们网络平台强劲需求的推动。计算收入增长了2.5倍以上,网络收入比去年增长了2倍以上。云服务提供商约占我们数据中心收入的45%,其中超过50% 来自消费者、互联网和企业公司。客户继续加速他们的漏斗架构购买,同时准备采用。

发言人2   02:01


推动我们数据中心增长的关键工作负载包括生成式人工智能模型训练和推理、视频、图像和文本数据、kuda和人工智能工作负载的预处理和后处理、人工智能驱动的合成数据生成推荐系统SQL和向量数据库处理。下一代模型将需要10到20倍的计算能力,才能处理更多的数据。这一趋势预计将继续超过尾随的4/4。我们估计推断带来的收入超过了我们数据中心收入的指标。Csps、消费者互联网公司和企业将从英伟达推理平台令人难以置信的量和效率中受益。对英伟达的需求来自前沿模型制造商、消费者互联网服务以及数万家为消费者、广告、教育、企业、医疗保健和机器人构建生成式人工智能应用的公司和初创企业。开发人员期望英伟达丰富的生态系统和每个云中的可用性。Csp对英伟达的广泛采用表示赞赏,并正在增加其英伟达的容量,因为vidia H2百平台的高需求开始在Q2向大型Csp的消费者互联网和企业公司提供服务,Nvidia H2百建立在我们的漏斗架构的优势之上,并提供比H-100多40% 的内存带宽。

 

发言人2   03:50

我们在中国的数据中心收入在第二季度环比增长,并且作为我们数据中心收入的重要贡献者占数据中心总收入的百分比,它仍然低于实施出口管制之前的水平。我们继续预计中国市场未来将非常具有竞争力。

发言人2   04:14

最新一轮的 “弹药性能侵犯基准测试” 突显了英伟达的领先优势,英伟达料斗和布莱克威尔平台相结合,在Computex的所有任务中获得金牌。英伟达与顶级计算机制造商合作,推出了一系列基于Blackwell架构的系统和英伟达网络,用于建设人工智能工厂和数据中心。通过英伟达mgx模块化参考架构,我们的oem和ODM合作伙伴正在构建100多个基于Blackwell的系统,快速且经济高效地设计。英伟达Blackwall平台汇集了多个GPU CPU、DPU、NV link nvlink交换机、网络芯片系统和英伟达库塔软件,为案例、行业和国家的下一代人工智能提供动力。配备第五代NV链接的英伟达GB 200 Ndl 72系统使所有72个Gpus都可以作为单个GPU,并提供高达30倍的推理速度。能够实时运行万亿个参数模型。 

发言人2   05:38

漏斗需求强劲,布莱克威尔在广泛采样。我们对布莱克威尔的GPU质量进行了更改,以提高产量。布莱克威尔的生产坡道计划于第四季度开始,并持续到财年26日。在第四季度,我们预计将跳过数十亿美元的布莱克威尔收入。预计2025财年下半年高端出货量将增加。料斗的供应和可用性得到了改善。对布莱克威尔平台的需求远高于供应,我们预计这种情况将持续到明年。

发言人2   06:21

网络收入环比增长16%。我们的以太网用于AI收入,包括我们的频谱X端吨以太网平台,环比增长了一倍,数百家客户采用了我们的以太网产品。光谱X获得了OEM和ODM合作伙伴的广泛市场支持,并被Csp的GPU云提供商和企业 (包括XII) 采用,以连接世界上最大的GPU计算集群。光谱X为以太网进行AI处理,并提供传统以太网性能的1.6倍。我们计划每年推出新的光谱X产品,以支持将计算集群从今天的数万个GPS扩展到不久的将来数百万个GPS的需求。光谱X有望在一年内开始推出价值数十亿美元的产品线。

发言人2   07:25

随着各国认识到AI专业知识和基础设施对社会和行业的国家迫切需要,我们的主权AI机会继续扩大。日本国家先进工业科学技术研究所正在与英伟达一起构建其AI桥接云基础设施3.0超级计算机。我们相信,今年主权AI收入将达到两位数的低十亿。

发言人2   07:57

企业AI浪潮已经开始。企业也推动了该季度的连续收入增长。我们正在与大多数财富100强公司合作,开展跨行业和地域的AI倡议。一系列应用程序正在推动我们的增长,包括AI驱动的聊天机器人、生成式AI、副驾驶和代理,以构建新的Moniz业务应用程序并提高信息生产力,amdocs正在使用Nvidia生成式AI作为其智能代理,从而改变消费者体验并将客户服务成本降低30%。ServiceNow正在使用英伟达的Now assist,提供公司系统中增长最快的新产品。Sap正在使用Nvidia构建双协作试点,Codity正在使用Nvidia构建生成式AI代理并降低生成式AI开发成本。Snowflake每天为超过10000个企业客户提供超过30亿个查询,正在与英伟达合作建立联合试点,最后撤回使用英伟达AI Omniverse将其工厂的端到端周期时间减少50%。


发言人2   09:18

汽车是该季度的关键增长动力,因为每个开发自动驾驶汽车技术的汽车制造商都在其数据中心使用英伟达。汽车将在本地和云消费方面带来数十亿美元的收入,并将随着下一代Av模型需要更多的计算能力而增长。医疗保健也正在成为一个价值数十亿美元的业务。随着人工智能彻底改变医学成像、手术机器人、病人护理、电子健康记录处理和药物发现。

 

发言人2   09:56

在本季度,我们宣布了一项新的英伟达AI代工服务,通过Metas 3.1瓶子系列为全球企业提供生成性AI。这标志着企业AI的分水岭时刻。公司首次可以利用开源前沿级别模型的功能来开发定制的人工智能应用程序,将他们的机构知识编码到一个人工智能飞轮中,以自动化和加速他们的业务。Accenture是第一个采用新服务构建自定义Lama 3.1模型的公司,既供自己使用,又协助客户部署生成的AI应用程序。

 

发言人2   10:45

Nvidia Nims加速和简化医疗保健、能源、金融服务、零售、运输和电信等领域的模型部署公司正在采用Nims,包括沙特阿美公司。Lowes和Uber。在和P实现了70% 的成本节约,在转移到Nims用于一般AI、呼叫转录和分类后,延迟降低了八倍,超过150个合作伙伴在AI生态系统的每一层都嵌入了分钟。

 

发言人2   11:26

我们发布了Nim代理蓝图,这是一个可定制的参考应用程序目录,其中包括一套用于构建和部署企业生成式AI应用程序的全套软件。通过使用Nim代理蓝图,企业可以随着时间的推移改进其AI应用程序,从而创建一个数据驱动的AI。蓝图的第一个Nim时代包括客户服务、计算机辅助药物发现、企业检索、增强生成等工作负载,我们的系统集成商、技术解决方案提供商和系统构建者正在将Nvidia Nim代理蓝图带给企业。英伟达Nim和Nim代理蓝图可通过英伟达企业软件平台获得,该平台势头强劲。

 

发言人2   12:18

我们预计我们的软件SaaS和支持收入将接近20亿美元的年运行率,退出今年的Nvidia人工智能企业,特别是为游戏增长做出了贡献,aipcs游戏收入为28.8亿美元,环比增长了9%,而查询同比增长,我们看到游戏机,笔记本电脑的环比增长。桌面收入,需求强劲且不断增长,渠道库存保持健康。每一台带有RTX的电脑都是AIPC的RTX电脑,可以提供高达300个AI top,现在有超过200个RTX AI笔记本电脑设计来自领先的PC制造商,拥有600个AI驱动的应用程序和收益,以及1亿个设备的安装基础,RTX将通过生成AI彻底改变消费者体验。Nvidia Ace是一套生成式AI技术,可用于RTX AIP CS。“休息” 是第一个使用英伟达王牌的游戏,包括我们的智能小工具栏小语言模型,minut on 4 b,针对设备推理进行了优化。英伟达游戏生态系统持续增长。最近添加的RTX和DLSS标题包括印第安纳琼斯和大圆。在觉醒和龙时代,保释警卫,G力量现在图书馆继续扩大,总目录规模超过2000个标题,任何云游戏服务的大部分内容移动到专业可视化收入4.54亿,连续增长6%,同比增长20%。需求正在由AI和图形用例驱动,包括模型微调和全宇宙相关的工作负载。

 

发言人2   14:32

汽车和制造业是推动本季度增长的关键垂直行业之一。公司正在竞相数字化工作流程,以提高其运营效率。全球最大的电子产品制造商富士康正在使用英伟达全宇宙技术为生产英伟达勒索系统的物理工厂提供数字孪生技术。包括奔驰在内的几家大型全球企业与英伟达签署了多年合同,以建立工业数字孪生工厂。我们宣布推出新的英伟达USD Nims和连接器,以向新行业开放Omniverse,并使开发人员能够将生成式人工智能、副驾驶和代理整合到USD工作流程中,从而加速我们构建高精度虚拟世界的能力。WPP正在其支持生成式AI的内容创建管道中实施USD Nim微服务,为可口可乐公司等客户提供服务。


发言人2   15:44

汽车和机器人收入为3.46亿美元,环比增长5%,同比增长37%。增长得益于新客户在自我繁荣平台上的增长以及消费者对人工智能驾驶舱解决方案需求的增加。在计算机视觉模式识别会议上,英伟达在大规模驾驶领域赢得了端到端自主驾驶的重大挑战,超过了全球400多个项目。波士顿动力学比亚迪电子图内在的西门子技能。阿迪和范式机器人正在将英伟达Isaac机器人平台用于自主机器人、人形机器人以及移动机器人。

 

发言人2   16:42

现在转移到其余的P和L,公认会计准则毛利率为75.1%,非公认会计准则公认会计准则毛利率环比下降75.7%,原因是数据中心新产品组合增加,低产黑色健康库存准备环比下降,公认会计准则和非公认会计准则公认会计准则运营费用增长12%。主要反映出更高的补偿相关成本。第二现金运营流量为145亿美元,我们利用了74亿美元的现金来实现股东回报,其形式是股票回购和现金股息,反映了每股股息的增加。我们的董事会最近批准了一项价值500亿美元的股票回购授权,以在第二季度结束时增加我们剩余的75亿美元的授权。

 

发言人2   17:41

让我把展望转向第三季度。总收入预计为325亿美元,增长或-2%。我们的第三季度收入展望包括我们的料斗结构的持续增长和我们的黑墙产品的样品。我们预计黑井产量将在公认会计准则第四季度增加,非公认会计准则公认会计准则增长利润率预计分别为74.4% 和75%,加上或-50个基点,随着我们的数据中心组合继续转向新产品,我们预计这一趋势将持续到2025财年第四季度。全年,我们预计毛利率将在70% 中间范围内。

 

发言人2   18:30

公认会计准则和非公认会计准则公认会计准则运营费用预计分别约为43亿和30亿。随着我们致力于开发下一代产品、公认会计准则和非公认会计准则公认会计准则,全年营业费用预计将在中高端范围内增长,其他收入和支出预计约为3.5亿美元,包括非关联投资和上市股权证券的损益。公认会计准则和非公认会计准则公认会计准则税率预计为17% 加或-1%,不包括任何离散项目。更多的财务细节包含在西雅图评论和我们红外网站上的其他信息中。

 

发言人2   19:18

我们现在要开始提问。接线员,你能帮我们拉一下问题吗?


发言人3   19:25

谢谢,在这个时候,我想提醒大家,以便提问,请按星号键,然后按电话键盘上的数字1。我们将暂停片刻,编制问答花名册。作为一个提醒,我们要求您将自己限制在一个问题上。你的第一个问题来自美国证券银行的维韦克·咏叹调。你的线路是开放的。

 

发言人1   19:56

感谢您回答我的问题,Jenson。你在准备好的评论中提到了布莱克威尔GPU面罩的变化。我很好奇,在后端包装或其他方面是否有任何其他的增量变化?我认为与此相关的是,你建议尽管设计有变化,但你可以在第四季度运送数十亿美元的布莱克威尔。是因为所有这些问题到那时都会解决吗?请帮助我们评估布莱克威尔攀登的任何变化的总体影响,这对您的收入状况意味着什么,以及我们的客户对此的反应。

 

发言人1   20:32

是的,感谢mevac,面罩的更改已完成,无需进行任何功能更改。因此,我们正在对Blackwell Grace Blackwell的各种系统配置的功能样本进行采样。在Computex上展示了大约100种不同类型的基于Blackwell的系统,我们正在使我们的生态系统开始采样。Blackwell的功能就是这样,我们预计将在Q4开始生产。

 

发言人3   21:18

你的下一个问题来自高盛的toshiya Hari系列。你的线路是开放的。

 

发言人1   21:25

嗨,非常感谢你回答Jensen的问题。我有一个相对较长的问题。正如你所知,市场上有一场相当激烈的辩论,关于你的客户和客户,客户的投资回报率以及这对Nvidia内部资本支出的可持续性意味着什么。比如,你们在看什么?你知道,当你试图衡量客户回报时,你的仪表板上有什么,以及这对资本支出的影响是什么?然后快速跟进一下,也许是针对科莱特,我认为你全年的主权AI数量可能增加了几十亿。是什么推动了前景的改善,我们应该如何考虑26财年?谢谢,首先要感谢toshiya,当我说在第四季度生产时,我的意思是发货,我不是指开始发货,但我的意思是,我不是指开始生产,而是长期发货,长期问题。

 

发言人1   22:21

让我们退后一步,你会听到我说我们正在同时进行两个平台转换。第一个是从加速计算过渡到从通用计算过渡到加速计算。其原因是,众所周知,CPU扩展已经放缓了一段时间,而且爬行速度很慢,但计算需求的数量仍在持续显著增长。你甚至可以估计每年翻一番。因此,如果我们没有一种新的方法,计算通胀将会推高每个公司的成本,并且会推高全球数据中心的能源消耗。事实上,你正在看到这一点。所以答案是加速计算。

 

发言人1   23:15

我们知道,加速计算当然是应用程序的速度。它还使您能够在更大规模上进行计算,例如科学模拟或数据库处理。但这直接转化为更低的成本和更低的能源消耗。事实上,本周有一篇博客讨论了我们提供的一大堆新库。这真的是第一次平台转换的核心,从通用计算到加速计算。并不是,看到它并不罕见。有人节省了90% 的计算成本。原因当然是,如果你将一个应用程序的速度提高了50倍,你就会期望计算成本会显著下降。

 

发言人1   24:13

第二个是通过加速计算实现的,因为我们降低了培训成本。大型语言模型正在训练深度学习,以至于现在可以拥有巨大的规模模型,数万亿参数模型,并在其上进行训练。在几乎世界的知识语料库上预先训练它,让模型去弄清楚如何理解人类语言表示,如何将知识编码到其神经网络中,以及如何学习推理。这导致了生成性人工智能革命。

 

发言人1   24:59

现在,生成式AI退后了一步,讨论了为什么我们深入研究它。这是因为它不仅仅是一个功能,不仅仅是一种能力。这是一种基本的新软件开发方式。而不是人类工程算法,我们现在有数据,我们告诉人工智能,我们告诉模型,我们告诉计算机,预期的答案是什么,我们之前的观察是什么,然后让它弄清楚算法是什么,功能是什么,它学习了一个通用的,你知道人工智能有点像一个通用函数逼近器,它学习函数。所以你可以学习几乎任何东西的功能,你知道的,任何你拥有的可预测的东西,任何有结构的东西或任何其他东西。你以前有一些例子。所以现在我们来到了生成式AI。它是计算机科学的一种基本新形式,计算的每一层都是如何完成的,从CPU到GPU,从人类工程算法到机器学习算法,以及您现在可以开发和生产的应用程序类型,从根本上说是非常了不起的。

 

发言人1   26:18

并且在生成式AI中正在发生几件事情。所以首先发生的是,前沿模型正在以相当可观的规模增长。他们仍然看到,我们仍然都看到了扩展的好处。每当你将模型的大小翻倍时,如果你去训练它,你也必须将数据集的大小翻倍以上。因此,创建该模型所需的触发器数量是二次增加的。因此,下一代模型可能需要比上一代模型多20、10、2040倍的计算能力,这并不奇怪。因此,我们必须继续显著提高代际表现,这样我们就可以降耗并降低做某事所需的成本。

 

发言人1   27:10

所以第一个是有更大的前沿模型在更多模态上训练。令人惊讶的是,与去年相比,有更多的前沿模型制造商。所以你有更多。这是生成式AI中发生的动态之一。

 

发言人1   27:27

第二,虽然它还在冰山的一角之下,但你知道,我们所看到的是ChatGPT的。图像生成器,我们看到编码。我们在英伟达广泛使用生成式AI进行编码。现在,当然,我们有很多数字设计师之类的东西,但这些都只是冰山一角。在冰山下面的是当今世界上最大的系统和计算系统,这些系统是从CPU迁移过来的推荐系统,你以前听过我谈论过这个。它现在正在从CPU转向生成式AI。推荐系统、广告生成、自定义广告生成、大规模定向广告以及超定向搜索和用户生成内容,这些都是非常大规模的应用程序,现在已经发展成为生成式AI。

 

发言人1   28:27

当然,产生性人工智能初创公司的数量正在为我们的云合作伙伴和主权人工智能国家创造数百亿美元的云租赁机会,这些国家现在意识到他们的数据是他们的自然和国家资源。他们必须使用人工智能,建立自己的人工智能基础设施,以便拥有自己的数字智能企业。正如科莱特之前提到的,AI正在启动。你可能已经看到了我们宣布的消息,世界领先的It公司正在加入我们,将英伟达AI企业平台带到全球企业中,我们正在与之交谈的公司中,有很多公司非常兴奋地希望提高公司的生产力。然后,通用机器人技术去年发生了大转变,我们现在能够从观看视频和人类演示中学习物理人工智能,并从全宇宙等系统的强化学习中生成合成数据,我们现在能够与几乎所有机器人公司合作,开始思考。开始建造通用机器人。所以你可以看到,生成式AI有太多不同的方向。因此,我们实际上看到了生成式AI加速的势头。

 

发言人2   30:08

和toshia,回答您关于我们主权AI和我们在增长、收入方面的目标的问题,这肯定是一个独特且不断增长的机会,随着生成式AI的出现,以及世界各国希望拥有自己的属格AI的愿望,这种AI将能够融入他们自己的语言,融入他们自己的文化,融入他们自己的数据。因此,越来越多的人对这些模型以及它们针对这些国家的具体内容感到兴奋。所以,是的,我们看到了一些增长机会就在我们面前。

 

发言人3   30:53

你的下一个问题来自蔡崇信 (Joe)·摩尔和摩根·斯坦利的关系。你的线路是开放的。

 

发言人1   31:01

很好,谢谢。只是在新闻稿中,她谈到了布莱克威尔的期待是令人难以置信的,但似乎料斗的需求也非常强劲。我的意思是,在十月没有布莱克威尔的情况下,你会引导它实现一个非常强劲的季度。所以,你知道,你认为两者的强烈需求共存多久了?你能谈谈向布莱克威尔过渡吗?你看到人们互相混合吗?你认为大多数的布莱克威尔活动是新的星团,只是这个转变的一些感知吗?是的,谢谢蔡崇信 (Joe),对料斗的需求非常强劲,对布莱克威尔的需求确实令人难以置信。

 

发言人1   31:37

这有几个原因。第一个原因是,如果你只看全球的云服务提供商以及他们可用的GPU容量,基本上没有。其原因是因为它们要么被内部部署以加速自己的工作负载,例如数据处理,你知道的,我们很少谈论它,因为它很平凡。

 

发言人1   32:04

你知道,它不是,它不是很酷,因为它不会生成图片或者文字。但几乎世界上每家公司都在后台处理数据。英伟达的Gpus是地球上唯一处理和加速数据的加速器。SQL数据,pandas数据,数据科学工具包,如pandas和新的Polars。这些是世界上最受欢迎的数据处理平台之一。除了Cpu之外,正如我之前提到的,它真的耗尽了动力。英伟达的加速计算确实是提升性能的唯一途径。

 

发言人1   32:48

因此,第一个是主要的,早在生成式AI出现之前的第一个用例就是应用程序一个接一个地迁移到加速计算。但是第二个,第二个当然是出租,他们将容量出租给模型制造商,并出租给初创公司。一家生成性的AI公司将绝大部分投资资本投入基础设施,以便他们可以使用AI来帮助他们创建产品。所以这些公司现在需要它。他们只是负担不起,你知道,你只是筹集资金,他们希望你把它付诸行动。

 

发言人1   33:33

现在你有了你必须做的处理。明年你不能这样做。你今天必须做。因此,有一个公平的原因,这是目前漏斗需求的第二个原因之一,因为争夺下一个高原。

 

发言人1   33:48

第一个进入下一个高原的人,你知道,可以引入革命性的AI水平。第二个到达那里的人逐步地,你知道,更好或差不多。因此,系统地、持续地进入下一个高原并成为第一个高原的能力是建立领导力的方式。

 

发言人1   34:16

你知道英伟达一直在这样做,我们向世界展示了这一点,向我们制造的Gpus以及我们制造的AI工厂、我们制造的网络系统和我们创建的Socs展示了这一点。我的意思是,我们想要设定速度。我们希望始终成为世界上最好的。这就是我们如此努力的原因。当然,我们也希望看到我们的梦想成真,看到我们想象中的所有未来能力以及我们可以为社会带来的好处。我们希望看到这一切成真。因此,这些模型制造商是相同的。当然。他们想成为世界上最好的。他们想成为世界上第一个。

 

发言人1   34:56

尽管布莱克威尔公司将在今年年底开始以数十亿美元的价格发货,但产能的提升仍然可能需要数周或一个月左右的时间。因此,从现在到那时,有很多生成性的AI市场动态。所以每个人都真的很匆忙。他们需要它的原因是运营原因,他们需要加速计算,他们不想建立任何更通用的计算基础设施。甚至是Hopper,你知道的,当然还有h200最先进的Hopper,如果你可以选择现在为企业构建CPU基础设施或为企业构建Hopper基础设施,现在这个决定相对清晰。因此,我认为人们只是在呼吁将已安装的基础设施的万亿美元过渡到现代基础设施。和霍珀拯救了艺术。

 

发言人3   36:05

你的下一个问题来自Matt Ramsey和TD Cowen的系列。你的线路是开放的。

 

发言人1   36:13

非常感谢。大家下午好。我想回到一个早先的问题,关于投资者正在进行的辩论,我不知道所有这些资本支出的投资回报,希望这个问题和区别会产生一些感知。但是我正在讨论的是,你所看到的那些花费所有这些钱并希望将前沿推向AGI收敛的人的百分比,正如你刚才所说,一个新的高原和能力,他们将不惜一切地花费来达到这种能力水平,因为这为行业和他们的公司与今天真正专注于资本支出与投资回报率的客户打开了许多大门。我不知道这种区别是否感知。我只是想感知一下,你是如何看待那些在这项新技术上投入资金的人的优先事项,他们的优先事项是什么,他们的投资时间框架是什么。谢谢,贝丝。

 

发言人1   37:20

投资于英伟达基础设施的人正在立即获得回报。这是您今天可以进行的最佳投资回报率基础设施和计算基础设施投资。因此,一种思考问题的方法,你知道,可能最简单的思考方法就是回到基本原则。

 

发言人1   37:44

你拥有价值一万亿美元的通用计算基础设施。问题是,你是否想建造更多这样的东西?对于每十亿美元价值的通用CPU基础设施,您可能会以不到十亿的价格租用它。因为它是商品化的,已经有一万亿美元在地面上,增加有什么意义?因此,那些呼吁建立基础设施的人们,当他们建立基于漏斗的基础设施以及很快基于布莱克威尔的基础设施时,他们开始省钱。

 

发言人1   38:21

这是巨大的投资回报。他们开始省钱的原因是因为数据处理可以节省金钱。你知道,数据处理已经在定价了其中很大一部分。推荐系统、省钱等等,好吗?所以你开始省钱了。

 

发言人1   38:40

第二件事是,你所站出来的所有东西都将被出租,因为有很多公司正在创立,以创造生产性AI。因此,您的容量立即被出租,投资回报非常好。

 

发言人1   38:56

然后第三个原因是你自己的事。你知道,你想自己创造下一个前沿,或者你自己的互联网服务受益于下一代广告系统、下一代推荐系统或下一代搜索系统。因此,对于您自己的服务,对于您自己的商店,对于您自己的用户生成的内容,社交媒体平台,您知道,对于您自己的服务,生成式AI也是一种。

 

发言人1   39:30

投资速度快。所以有很多方法可以考虑清楚。但从核心来看,这是因为它是你可以放在地面上的最好的计算基础设施。

 

发言人1   39:43

今天,通用计算的世界正在转向加速计算。人类工程软件的世界正在转向生成式人工软件。如果您要构建基础设施来实现云和数据中心的现代化,请使用英伟达加速计算来构建它,这是最好的方法。

 

发言人3   40:11

你的下一个问题来自UBS的蒂莫西或咖喱行。你的线路是开放的。

 

发言人1   40:18

非常感谢。我有一个关于近期和长期收入增长形态的问题。我知道,科莱特,你今年确实增加了Opex,如果我看到你的购买承诺和供应义务的增加,那也相当乐观。另一方面,有一些学派认为,似乎并没有很多客户真正为液体冷却做好准备。我确实认识到其中一些机架是可以气冷式的。

 

发言人1   40:40

詹森,这是要考虑的事情,关于黑色石油将如何增长的形状,然后我想当你展望未来,你知道,明年显然将是一个伟大的一年,你会担心其他任何事情吗?你知道,像电源供应链或某些模型这样的门市因素开始变小?

 

发言人1   40:58I

我只是想知道你是否能和那些东西说话。我要倒推。我真的很感激这个问题。

 

发言人1   41:07

所以请记住,世界正在从通用计算转向加速计算。世界建立了大约一万亿美元的数据中心,你知道,再过几年,一万亿美元的数据中心都将是过去的加速计算。数据中心里没有Gpu,只有CPU。在未来,每个数据中心都将使用Gpu。其原因非常清楚,因为我们需要加速工作负载,以便我们能够继续保持可持续性,继续降低计算成本,以便当我们进行更多计算或不经历计算膨胀时。其次,我们需要Gpus来实现一种名为生成式AI的新计算模型,我们都承认这将对计算的未来产生巨大的变革作用。因此,我认为,我认为倒推一下,思考这个问题的方式是,下一万亿美元的全球基础设施将明显不同于最后一万亿美元。它将相对于斜坡的形状大大加速。

 

发言人1   42:15

我们提供多种配置的布莱克威尔。布莱克威尔采用了一种,你知道的,如果你愿意的话,那就是布莱克沃尔经典,它使用了我们与沃尔塔一起开创的hgx形式因素。我认为这是错的。因此,我们已经推出Htx外形已经有一段时间了。这是气冷式的。

 

发言人1   42:43

但是,想要进行酒精冷却的数据中心的数量相当可观。其原因是因为我们可以在一个液态数据中心,在任何数据中心,电力有限的数据中心,无论你选择什么规模的数据中心,你都可以安装和部署比过去高3到5倍的a-i量的任何地方。因此液体冷却更便宜,液体冷却TCO更好,液体冷却使您能够享受我们称之为Mv链接的能力的好处,这使我们能够将其扩展到72个Grace Blackwall软件包,基本上有144个Gpu。想象一下,144个GPU通过Mv链路连接在一起,我们越来越多地向您展示这样做的好处,接下来的点击显然是非常低的延迟和非常高的量。大型语言模型推理和大型Mv链接域将成为这方面的游戏规则改变者。因此,我认为人们可以很舒适地同时使用两者。因此,几乎每个我们合作的CSP都在部署其中的一些。所以我非常有信心我们会很好地提升它。

 

发言人1   44:13

你在第三个问题中的第二个问题,它期待着,但明年将是伟大的一年。我们预计明年我们的数据中心业务将显著增长。Blackwall将会是这个行业彻底的游戏变革。而黑墙将在下一年继续存在。

 

发言人1   44:35

正如我之前提到的,从第一原理向后工作,记住计算同时经历两个平台的转换。这真的非常重要,要把注意力集中在通用计算正在转向加速计算上。人类工程软件将过渡到geom、磁带AI或人工智能学习的软件。

 

发言人3   45:04

你的下一个问题来自伯恩斯坦研究公司的斯泰西·拉斯金。你的线路是开放的。

 

发言人1   45:12

大家好,感谢回答我的问题。我有两个简短的问题要收集第四季度前几十亿美元的布莱克威尔收入,这是添加剂吗?你说你预计下半年漏斗需求将增强。这是否意味着Hopper在增加数十亿美元的基础上加强了Q3到Q4?

 

发言人1   45:31

关于毛利率的第二个问题是,如果我今年有70多岁,请解释我想在哪里得出这个结论。如果我一年有75岁,那么第四季度的我会在71到72岁之间,在这个范围内。这是你期望的毛利率退出率吗?随着布莱克公司的增长,我们应该如何考虑毛利率演变到明年的驱动因素?我的意思是,我希望收益率、库存储备和一切都会出现?

 

发言人2   45:59

是的,这是斯达西。让我们先回答你关于霍珀和布莱克威尔的问题。所以我们相信我们的漏斗将继续增长到下半年。我们有许多用于料斗的新产品,我们认为现有的料斗产品将在接下来的季度继续增长,包括我们的Q3和那些新产品转移到Q4。因此,让我们假设H1与H1相比,H1是一个增长机会。此外,我们还有黑色井在其上方,黑色井开始在q4中加速。希望这对你在这两件事上有所帮助。

 

发言人2   46:45

你的第二部分是关于我们的毛利率,我们为第三季度提供了毛利率。我们提供的非公认会计准则毛利率约为75。我们将处理我们正在经历的所有不同的过渡,但我们确实相信我们可以在第三个月完成75,我们前提是我们仍在70年代中期或大约75年的全年轨道上。因此,我们可能会在第四季度看到一些微小的差异,再次是我们的过渡和我们在新产品推出上的不同成本结构。然而,我和你在那里的人数不一样。我们没有确切的指导,但我确实相信你比我们低。

 

发言人3   47:38

你的下一个问题来自本·莱利亚和梅利亚斯的路线。你的线路是开放的。

 

发言人1   47:44

是吗?嘿,非常感谢你的问题,Jensen和Colette。我想问一下地理位置。有10个Q出现,美国按顺序下降,而几个亚洲地理区域按顺序上升了很多。只是想知道那里的动态是什么。你知道,显然,中国做得非常好。你在评论中提到了什么是看跌和看跌?然后我只想澄清斯塔西的问题,如果这意味着在所有这些有利的收入动态下,公司的整体收入增长率在第四季度加速增长?谢谢。

 

发言人2   48:27

让我谈谈我们的披露,就10个QA要求的披露和地理位置的选择而言,有时创建正确的披露非常具有挑战性,因为我们必须想出一个关键部分,即我们销售给谁,或者特别是我们向谁开具发票。所以你所看到的是我们为谁开具发票。那不一定是产品最终会在哪里,甚至可能会到达最终客户的地方。这些只是转移到我们的oem或odms以及我们的系统集成商的大部分产品组合。因此,您所看到的有时只是在使用谁来完成完整配置方面的迅速变化,然后这些东西才进入数据中心,进入笔记本电脑和其中的那些部分。这种转变不时发生。但是是的,我们在中国的数字与中国相反。请记住,我们在回顾您的陈述和毛利率以及我们在收入方面所看到的漏斗和布莱克威尔的数据时,将游戏、数据中心和汽车纳入其中,上层将在下半年继续增长,将继续从我们目前在确定每个Q3和Q4的确切组合时看到的增长。

 

发言人2   50:05

我们这里没有。我们还不能在第四季度方面提供指导,但我们现在确实看到了需求预期。我们确实看到了这将是Q4的增长机会。最重要的是,我们将有我们的布莱克威尔架构。

 

发言人3   50:24

你的下一个问题来自CJ muse和Cantor Fitzgerald的路线。你的线路是开放的。

 

发言人1   50:30

是的,下午好。谢谢你回答这个问题。你已经开始了一个非凡的年度产品节奏,挑战可能只会变得越来越复杂,你知道,复杂性在一个激进的限制下,先进的包装世界。非常好奇,你知道,如果你退后一步,这背景如何改变你对潜在更大的垂直整合、供应链合作伙伴关系的思考,然后考虑对你的利润率的间接影响,谢谢。是的,谢谢。

 

发言人1   51:00

让我们看看,我认为第一,你的第一个问题的答案是,我们的速度如此之高的原因同时是因为模型的复杂性正在增加,我们希望继续降低成本。它正在增长,因此我们希望继续扩大其规模。我们相信,通过继续扩大AI模型的规模,它将达到非凡的有用性水平,并且它将打开,我意识到,下一次工业革命。我们相信。因此,我们将非常努力地推动自己继续扩大规模。

 

发言人1   51:54

我们有能力相当独特地整合,设计一个AI工厂,因为我们拥有所有的部分。除非你拥有所有零件,否则每年都不可能建造一个新的AI工厂。因此,明年我们将出货比我们公司历史上任何时候都多的CPU,当然更多的Gpu,但也有nvlink开关,cx,dpu,connect x,东西方的EPU,blufield。DP用于南北以及数据和存储处理,以找到一个超级计算中心到以太网的频段,这对我们来说是一个全新的产品,它正在成为一个价值数十亿美元的业务,将AI带到以太网。事实上,我们可以构建,我们可以访问所有这些,我们有一个架构堆栈,如你所知。它使我们能够在完成它时向市场推出新功能。否则,会发生的情况是你运送这些零件,去寻找客户出售,然后你必须建造,有人建立一个AI工厂,而AI工厂有堆积如山的软件,所以这不是关于,这不是关于谁整合它的问题。

 

发言人1   53:18

我们喜欢我们的供应链在我们可以服务的感知中被分解的事实,你知道,广达富士康惠普联想,超微。我们曾经能够充当Zt。它们是最近购买的等等。因此,我们拥有千兆字节的生态系统合作伙伴的数量,我们拥有的生态系统合作伙伴的数量,使我们能够将我们的架构,这一切都正常,但以定制的方式集成到世界上所有的云服务提供商,企业数据中心,我们的odms和集成商集成商供应链所需的规模和达到的范围是巨大的,因为世界是巨大的。因此,我们不愿意做也不擅长做的那部分,但我们知道如何设计AI基础设施,以客户喜欢的方式提供,并让生态系统集成它。嗯,是的,无论如何,这就是原因。

 

发言人3   54:34

你的最后一个问题来自Erin rakers和Wells Fargo的系列。你的线路是开放的。

 

发言人1   54:43

是的,谢谢你回答问题。我想回到布莱克威尔的产品周期。我们经常被问到的一个问题是,当你考虑利用nvlink时,你如何看待机架秤系统的动态混合,你考虑GB,你知道,72以及它如何推向市场,你知道,动态看起来,你知道,就Blackwell产品周期而言,我想我明确地说,当我们开始考虑布莱克威尔循环时,你如何看待机架秤系统的混合?是的,埃林,谢谢。

 

发言人1   55:17

Blackwall机架系统,它被设计和架构为机架,但它以分解的系统组件出售。我们不出售整个货架。原因是每个人的机架都有点不同。令人惊讶的是。你知道,有些是OCP标准,有些不是,有些是企业标准。每个人的功率限制可能会有所不同,例如选择的cdus、塔式汇流母线、配置和集成到人们的数据中心,都有所不同。

 

发言人1   55:57

因此,我们的设计方式是构建整个机架,软件将在整个机架上完美运行,然后我们提供系统组件,例如CPU和GPU计算板,然后集成到mgx中。它是一个模块化的系统架构,mgx完全巧妙,我们在工厂里有mgx、odms、集成商和oem。所以,你知道,任何你想要的配置,你想要那个价值3000英镑的机架被交付的地方,你知道,它必须靠近数据中心,集成和组装,因为它相当重。因此,从我们发货GPU CPU、交换机、尼克斯的那一刻起,从那时起,所有供应链中的一切都非常接近Csp的位置和数据中心的位置。

 

发言人1   57:10

你可以想象世界上有多少数据中心,以及我们与ODM合作伙伴一起扩展了多少物流中心。所以我认为,因为我们将它展示为一个机架,并且因为它总是以这种方式呈现和展示,所以我们可能会留下这样的印象,即我们正在进行集成。

 

发言人1   57:33

我们的客户讨厌我们进行集成。供应链讨厌我们进行整合。他们想要进行整合,这是他们的附加价值。有一个最终的设计,如果你愿意的话,你知道,它不像shimmy进入数据中心那么简单,但是设计的适合性非常复杂。因此,安装、设计适合安装、启动、修理和更换,整个周期在世界各地完成。我们拥有一个庞大的ODM和OEM合作伙伴网络,在这方面做得非常好。所以集成并不是我们做机架的原因,而是用我们不想成为集成商的方式来做这件事的反原因,我们想成为技术提供商。

 

发言人3   58:36

我现在将把电话转回给黄金森致闭幕词。

 

发言人1   58:42

谢谢。让我提出我之前提出的几点意见。再次,全球数据中心正全力以赴,通过加速计算和生成式AI来现代化整个计算堆栈。漏斗需求依然强劲,对布莱克威尔的期待令人难以置信。让我来强调最重要的五件事。我们公司的前五件事。

 

发言人1   59:01

加速计算已经达到了临界点。CPU扩展速度变慢,开发人员必须尽可能加速。加速计算始于kuda x库,新库,为英伟达打开新市场我们发布了许多新库,包括加速极点、熊猫和火花,这是矢量数据库的领先数据科学和数据处理库qvs。这现在非常热门,Ariel和shiona用于5G无线基站,这是一套完整的数据中心套件,我们现在可以进入一对基因测序的砖块和用于蛋白质结构预测的alpha全2现在加速了kuda。我们正在开始对价值一万亿美元的数据中心进行现代化改造,从通用计算到加速计算。这是第一。第二,Blackwell是一个步进函数,跳过漏斗。布莱克威尔是一个AI基础设施平台,不仅仅是一个GPU,也恰好是以我们GPU的名义,但随着我们向合作伙伴和客户展示更多的布莱克威尔和样本系统,布莱克威尔的飞跃程度变得清晰起来。

 

发言人1   01:00:19

black wall的愿景花费了近五年的时间和7个芯片来实现灰色CPU,黑色财富,双GPU,以及一个用于东西流量的Coos软件包连接x DPU,blufield,南北DPU,和存储流量,nvlink开关可用于所有GPU通信以及量子和光谱X,但对于Infiniband和以太网都可以支持AI的大规模爆发流量。

 

发言人1   01:00:52

Blackwall的AI工厂正在制造小型计算机。英伟达设计并优化了Blackwell平台的全栈端到端,从芯片系统、网络、甚至结构化电缆、电源、冷却和大量软件,使客户能够快速建立AI工厂。这些都是资本密集型基础设施。客户希望在获得设备后立即部署它,并提供最佳性能和TCO。Blackwell在电力有限的数据中心提供的AI量是Hopper的三到五倍。

 

发言人1   01:01:34

第三个是nvlink,这是一件非常重要的事情,它的全部GPU开关是改变游戏规则的,这就是Blackwell系统。在72个GB 200个数据包中放入一个nvlink域,其聚合Mv链接带宽为每秒259个TB和1个Rec。请正确看待这一点。这大约是漏斗的10倍,每秒259 TB。这有点感知,因为你需要在数万亿个代币上增强数万亿个参数模型的训练。因此,需要将自然数量的数据从GPU移动到GPU进行推理,nvlink对于低延迟、高量、大型语言模型令牌生成至关重要。

 

发言人1   01:02:26

我们现在有三个网络平台nvlink,用于GPU扩展量子Infiniband以进行超级计算,并有专门的AI工厂和频谱X用于以太网上的AI。媒体的网络足迹比以前大得多。

 

发言人1   01:02:45

生成的AI势头正在加速。生成式AI前沿模型制造商正在竞相扩展到下一个AI高原,以提高模型在智商中的安全性。我们也在扩展,以理解从文本、图像、视频到三维物理、化学和生物学的更多模态。聊天机器人、编码Ai和图像生成器正在快速增长,但这只是冰山一角。互联网服务正在为大规模推荐人部署生成式AI。添加定位和搜索系统。

 

发言人1   01:03:18

人工智能创业公司每年消耗数百亿美元的Csp云容量,各国正在认识到人工智能的重要性,并投资于主权人工智能基础设施和Nvidia AI,而Nvidia Omniverse正在开辟人工智能的下一个时代,即通用机器人。现在企业AI浪潮已经开始,我们准备帮助公司转变他们的业务。英伟达AI企业平台由Nemo、nims、nim、agent blueprints和AI foundry组成,我们的生态系统合作伙伴和世界领先的It公司使用这些平台来帮助公司定制AI模型和构建定制的AI应用程序。企业可以在Nvidia AI企业运行时上部署,每年每GPU 4500美元的Nvidia AI企业对于在任何地方部署AI和Nvidia软件来说是非常有价值的。TAM可能是重要的,因为kuda兼容GPU的安装基础从数百万增长到数千万。正如科莱特所提到的,英伟达软件将以20亿美元的运行率退出今年。感谢大家今天加入我们。

 

发言人3   01:04:47

女士们先生们,今天的通话到此结束。我们感谢您的参与。您现在可以断开连接。

作者声明:内容由AI生成
追加内容

本文作者可以追加内容哦 !