英伟达战略方向0630

6月27日英伟达召开24财年股东大会,会上未有算力新品信息,但黄仁勋回答了公司的产品哲学和新市场开拓等问题。

- 2024财年营收增长126%,达609亿美元;每股摊薄收益同比增长586%,达11.93美元。

- Hopper架构需求依然强劲,Blackwell及其后续产品已被行业广泛采用——Blackwell架构平台可能是公司乃至行业史上最成功产品。

- 由英伟达所驱动的AI工厂,其处理、提炼和制造的以digital tokens为形式的智能,成为一种新型商品,为全球100万亿美元产业创造新的收入机会。

- 人工智能的新一轮浪潮预计将使价值50万亿美元的重工业实现自动化,新一轮工业革命已然开始,公司已在硬件及底层软件上对AI工业机器人行业进行提前布局。

- 致力服务多领域垂直行业,医疗保健、汽车和数字制造业已成为重点服务垂直行业,潜力巨大。已开发行业相应软件及平台以求覆盖所有垂直行业,市场价值数万亿美元

- 量子计算产业的最终到来时间在几十年之后,届时将以加速计算+量子计算的形式呈现。

英伟达此次股东大会提出来了两个关于其未来发展战略的方向:

首先是扩宽广度方面。众所周知英伟达在AI基础算力领域有着极强的深度——从AI芯片到互联、底层软件等方面均处于断层领先状态,而新发布的Blackwell GPU又使得英伟达的行业深度有了进一步的提高。因此,在未来的发展中,英伟达将从全力突破深度巩固垄断演化成为突破深度的同时拓宽广度,从而达到全方面的覆盖。而结合本次股东大会所透露出来的信息,英伟达将其拓宽AI算力市场广度的目标锁定在了垂直行业服务如医药、自动驾驶等方面上。计划加强对于垂直行业的服务将意味着英伟达将花费更多精力于研发单一行业适配的底层软件,从而可在AI大模型厂商订单之外另获得较大市场,增加利润。以医药为例,英伟达设计了Biomolecular Generative AI平台,给制药公司提供以计算机辅助药物研发的坚实基础,从而使得其设计的底层软件或平台在除大模型之外可在单一行业获取利润。最终通过以上策略,英伟达将试图达到对AI上游的全覆盖。

其次是提前布局方面。英伟达在本轮AI行情成为最大受益者离不开其在约十年前就开始对于高性能运算GPU及其互联、底层软件等的布局。因此,英伟达对于提前布局未来行业有着锐利的观察与狼性般的渴望。而本次提前布局,英伟达基于对未来AI的走势与应用形式的研判,将宝押在AI工业机器人上,力求以AI的引入来推动工业的智能化,从而为工业实现新一代的革命。而对于英伟达在其新布局之中的定位,预期还是以“卖铲子的人”为主——同时提供可供于AI工业机器人训练和操作的GPU,以及提供其对应调试、训练用的底层软件。纵观全AI产业链所有参与者,英伟达是第一个提出要抢占AI工业机器人的企业,而英伟达是否会在这一次新的风口赌对赛道则还需对于当前AI行业的下游应用程度、市场渗透率和接受率、及工业企业关于进行新一次技术革命从而降本增效的接受程度。

GB200产业链近期加单消息不断:

根据台媒《经济日报》6月24日报道,英伟达GB200与B系列芯片获得客户大量导入,呈现供不应求盛况,先前大举追加台积电先进制程投片后,追单效应蔓延至后段封测厂。此前《经济日报》亦报道鸿海继取得大份额英伟达GB200 AI服务器组装代工订单之后,独占GB200关键元件NVLink Switch订单。近期GB200产业链加单消息不断,关注服务器、光模块、铜连接2025年业绩弹性。

产业链调研更新:

1. PC除了个别厂商外整体库存健康,网通库存还是在高档状况不是很好。零售销售没什么变化,持平没什么成长跟市场预期差不多。中国状况低迷,但从生产端从去年7月有落底回温的状况,现在YoY变正的,慢慢谷底翻升,下半年有机会回温。整体美国持平、中国回升。         

2. 现在都看2025年PE,很多公司用2025来看也不是很便宜,大盘会比较震荡因为评价不便宜。筹码来看有上升空间,长线的资金持续慢慢买进,Hedge Fund杀进杀出水位比较高,所以短期评价高会震荡,但长线资金占一半左右,持续慢慢买,所以往下有支撑,以总经角度获利还在上升,评价贵但景气还OK,筹码面长线资金还在进场,整体还是偏乐观看。          

3. Nvidia新架构          

4. 之前HGX架构8U,一个Rack放4台(32 SPU),现在1U Server(4 GPU),一个Rack可以放18台(72 GPU)。明年预估约当5万台NVL72,大概350万颗Blackwell用GB200的形式来卖。NVL36、72会混和出,广达比较多的单都是NVL36,鸿海比较多NVL72。明年GPU预估500万颗,70%是GB200架构,其他就是B100、B200的形式,今年总出货量300多万颗,去年100多万颗,每年维持大约一倍成长。          

5. NVL72 BOM大概300万美金左右,是所有硬件成本。下游要看实际上怎么卖,毛利不好抓。90%都是NV零组件275万:GB200 6.8万,一台两个*18个Compu tray,9个Switch Tray + Cable cartridge接近12万。BF3 4k一台两张*18台compute tray,还有CX7等等。其他比较贵的象是散热、SSD(8颗)、Power supply。除此之外Amphenol的Cable蛮贵的大概2万多、Mellanox、Arista的Switch、机壳机构件大概1万块、电线3k。              

6. ODM找四家参考设计,T1公司:鸿海、广达、ZT、纬创,后续做出来才会下放给其他公司,鸿海、广达目前进度比较快,初期订单这两家比较多。          

7. GB200 NVLink新的铜线设计,后面用铜线直接接到NVSwitch芯片,用安费诺飞线技术(Overpass),传统Connector跟主芯片用PCB做连线,讯号速度越来越快会有功耗、衰减的问题,现在主芯片旁边放个很靠近的Connector,用飞线的方式跳过来。未来会往芯片封装,很像CPO不过是铜线,有点Co-Packaged Copper的感觉。光纤是一条路,要比较常会走CPO,短的路径象是机柜内铜线看起来还是蛮好的方法。目前一个柜子有四个Cable cartridge,对应每个GPU各一条。现在已经到224G,所有的线、连接器Amphenol都有专利,所以主要都是它在做,Cable cartridge 4~5K*四组,大概2万美金都是Amphenol在做。          

8. GB200供电改成集中是供电,原本H100设计一台大的AI Server放了6个3.3kW PSU。中央有一条1,4000 安培Busbar集中供电,Power Supply原本规划3U高,5.5kW放12颗=66kW,一个NVL72要放四台,最近新的设计改成1U,直接放6颗,缩成MGX架构19吋大小。原本放4台之后可能变成1U放8台,BMC用量会有差,每台PSU会放一个BMC,用量一个Rack原本4颗现在变8颗。Busbar主要供应商:Amphenol、台达电,贸联也有可能有,但不贵8~900块。          

9. 功耗:Grace 300W、Blackwell 1,200W、NVSwitch 1,800W,NVL72大概130kW左右。          

10.液冷只有几个主要的重要零件,四个:CDU、CDM、Cold plate、UQD(快接头)。CDU很快就供过于求,每个人都会做,重要零件Pump不是很难做、热交换器也很多厂商可以供应,目前鸿佰、3017、3324、2308、6125、8069都会做。CDM把中间管子焊在一起。Cold plate比较有进入障碍,会跟Bianca放在一起兜售,要卖给NV再做组装,主要设计参考厂商Cool master、3017。UQD会漏水都是在这边,厂商使用的时候很粗暴容易出问题,以外商为主,初期还不敢换到台湾厂商。             

 11.HGX水冷设计(Supermicro),4U水冷8个GPU,一个Rack 8台,出给Tesla就是这台,第三季5B营收有70%都是这个。算是HGX升级版本做成水冷的版本,但算是比较过渡产品,新的有GB200,没有钱买可能会买下个产品,MGX 4U,水冷做到最高16个GPU,底下放NVSwitch Board,原本平面的现在变直的插,以往GPU插PCIe插槽现在走NVswitch,16个GPU用NVLink连接,Density比前面多一倍,有水冷机。

 

追加内容

本文作者可以追加内容哦 !