科技巨头谷歌、Meta、英特尔纷纷推出最新款AI芯片,全力追赶英伟达,本轮AI竞赛愈发激烈。

Meta:官宣下一代AI训练与推理芯片项目(MTIA)

4月10日消息,Meta Platforms宣布推出其训练与推理加速器项目(MTIA)的最新版本。据悉,MTIA是Meta专门为AI工作负载设计的定制芯片系列,Meta的目标是通过一系列产品迭代降低对英伟达等公司的依赖。

据Meta介绍,新一代AI芯片由台积电代工,采用5纳米工艺制程。MTIA也是该公司更广泛产品开发的一部分,针对Meta独特的工作负载和系统进行了优化。与前一个版本相比,新的MTIA在计算能力和内存带宽上都提高了一倍多,有助于强化内容排名和推荐广告模型。

去年10月,Meta表示,将在支持AI的基础设施上投入多达350亿美元,包括数据中心和硬件。首席执行官扎克伯格表示,到2024年,AI将成为Meta最大的投资领域。近日Meta表示,该公司不仅要投资于计算芯片,还要投资于内存带宽、网络、容量以及其他下一代硬件系统。

谷歌:推出Arm架构AI芯片Axion

4月9日,谷歌谷歌宣布推出了为数据中心设计的、基于Arm架构定制的新型CPU“谷歌Axion”,以期降低云计算的运营成本,并表示其性能优于x86芯片以及云端通用Arm芯片。

根据谷歌云内部数据显示,与通用Arm芯片相比,Axion提供的实例性能高出了30%;而与当代基于x86的同类处理器相比,Axion的性能高出50%,能效高出60%。预计这款芯片将于今年晚些时候上市。通过推出基于Arm的定制芯片,谷歌也希望能让其云计算业务更加经济适用,以此来和亚马逊以及微软竞争。

官方数据显示,谷歌母公司目前Alphabet有四分之三的收入来自广告,但其云计算部门的增长很快,已占到总收入的11%。

英特尔:发布新一代AI芯片Gaudi 3 AI加速卡

4月9日,英特尔在 Vision 2024 客户和合作伙伴大会上正式宣布推出最新的芯片产品 Gaudi 3 AI加速卡。

据悉,Gaudi系列是英特尔在2022年5月面向人工智能应用场景专门推出的芯片品牌,用以对标英伟达的人工智能计算芯片。英特尔表示,Gaudi 3 芯片的能源效率是英伟达H100型号GPU的两倍多,而运行速度是H100的1.5倍,预计该芯片将在今年第三季度推出。

官方资料显示,英特尔Gaudi 3采用5nm工艺,带宽是前代Gaudi 2(7nm工艺)的1.5倍,BF16功率是其4倍。Gaudi 3配备最高128GB的HBM2e内存,峰值带宽为 3.7TB/s。

在该活动现场,英特尔还围绕人工智能面向企业发布了处理器Xeon 6以及AI 开发开放平台计划等产品和方案。英特尔一直致力于通过力推AI在个人电脑终端的落地来反向促进自家上游硬件生态的繁荣。去年9月,英特尔首席执行官帕特·基辛格首次提出AI PC这一概念。当时,基辛格指出AI将通过云与PC紧密协作,进而从根本上改变、重塑和重构PC体验,释放人们的生产力和创造力。

英伟达真的危险了吗?黄仁勋:依然很稳

那么,前有谷歌、微软、亚马逊“造芯”,后有英特尔“弯道超车”,英伟达真的危险了吗?

2023年12月初,AMD高调推出了MI300系列产品。据介绍,MI300X芯片拥有超过1500亿个晶体管,内存密度是目前英伟达H100的2.4倍,内存带宽是其1.6倍。AMD首席执行官苏姿丰称,这款新芯片在训练 AI 软件的能力方面与英伟达的H100相当,并且在推理方面表现得更好,不过这一说法也未得到独立验证。

今年3月底,英伟达正式发布了新一代人工智能计算芯片B200。英伟达CEO黄仁勋表示,B200 GPU的AI运算性能在FP8及新的FP6上都可达20 petaflops,是前一代H100运算性能的2.5倍。

如今,随着Gaudi 3的正式发布,当前AI芯片市场呈现出英伟达B200、AMD MI300系列和英特尔Gaudi 3"三巨头"竞争的格局。英伟达在AI芯片领域"一家独大"的局面面临来自另外两家厂商的挑战。

不过,从黄仁勋角度来看,英伟达的生态系统很稳定,在当前AI算力"军备竞赛"中,英伟达依旧暂时是市场的佼佼者。

黄仁勋前段时间这段话其实表达的非常明确:“数据中心需要你运营它。购买和销售芯片的人考虑的是芯片价格。运营数据中心的人考虑的是成本,我们总拥有成本(TCO)非常好。即使竞争对手芯片是免费的,他们也不如我们,客户也不会买。我们的目标是增加更多的价值。但这背后需要很多努力,我们必须不断创新、我们不能把任何事情视为理所当然、我们有很多竞争对手。”

事实上,AI 芯片是一个不断向前“奔跑”的高技术行业。它没有垄断,只有不断创新提供更大价值,才有可能让企业持续保持领先地位。因此,无论是英伟达还是英特尔,他们都有非常强大的市场竞争力,也都有望成为 AI 加速计算市场的“领先者”。

如今,在服务器市场,AMD正在逐渐蚕食该公司的市场份额。据市场调研机构Mercury Research所公布的2023年第四季度AMD处理器市场份额统计数据,AMD EPYC已经拿下了23.1%服务器市场份额,份额占比再次扩大。尽管EPYC作为通用处理器,算力上不如GPU加速器,不过该产品可与GPU加速器、AI加速器等协同工作,实现效率的最大化。

而全新英特尔 AI 芯片Gaudi,预计将不太会在中国大陆市场销售。但从全球来看,它是否真的能如其所言的,凭借性能优势、极具竞争力定价优势而占领更大的市场份额,一切还有待时间的检测。

无芯片,不AI

AI芯片是AI算力的核心。

有说法称,对标ChatGPT,做好一个大模型的最低门槛就是1万块A100的芯片。前面说到,随着人工智能应用场景和数据规模的扩大,算法模型的复杂度呈指数级增长,特别是深度学习成为主流,需要更快的计算速度。虽然CPU可以执行AI算法,但由于内部逻辑多,对于AI算法来说效率不高。因此,出现了专门的AI芯片,它们设计用于高效并行计算,加速AI计算过程,并提高性价比。

广义而言,AI 芯片指的是专门用于处理人工智能应用中大量计算任务的模块,除了以 GPU、FPGA、ASIC 为代表的 AI 加速芯片,还有比较前沿性的研究,例如:类脑芯片、可重构通用 AI 芯片等。狭义的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片。

这里面,GPU是AI芯片主力军,因为它拥有卓越的高性能计算能力和通用性,适用于处理复杂算法和通用型人工智能平台。而随着人工智能技术、平台和终端的不断成熟,随着视觉、语音、深度学习的算法在FPGA以及ASIC芯片上的不断优化,此两者也有望逐步占有更多的市场份额。

根据VMR数据,全球和中国的GPU市场规模预计将继续快速增长。2021年全球GPU市场规模达到334.7亿美元,预计到2030年将增至4773.7亿美元,年复合增长率达34.4%。2020年中国GPU市场规模为47.39亿美元,预计到2027年将增至345.57亿美元,年复合增长率为32.8%。这表明GPU在人工智能领域的需求将继续扩大,并将成为市场的重要推动力量。

$标普500ETF(SH513500)$ $纳指100ETF(SH513390)$ $微软(NASDAQ|MSFT)$

#美股银行业财报季即将拉开帷幕#

#3月CPI超预期,美联储降息推迟?#

#押注AI重整Mac产品线,苹果股价大涨#

风险提示:以上数据来源均为公开信息,仅供参考,不构成任何操作建议或推荐。基金投资需谨慎。基金管理人承诺将本着诚信严谨的原则,勤勉尽责地管理基金资产,但并不保证基金一定盈利,也不保证最低收益。基金的过往业绩并不预示其未来表现,基金管理人管理的其他基金的业绩并不构成本基金业绩表现的保证。投资者在投资基金前,请务必认真阅读《基金合同》及《招募说明书》等法律文件。本基金适当性风险等级为R3,在代销机构申购的应以代销机构的风险评级规则为准。如需购买本基金,请您关注投资者适当性管理相关规定,提前做好风险测评、并根据您自身的风险承受能力购买与之相匹配的风险等级的基金产品。

免责声明:转载内容仅供读者参考,版权归原作者所有,内容为作者个人观点,不代表其任职机构立场及任何产品的投资策略。本文只提供参考并不构成任何投资及应用建议。如您认为本文对您的知识产权造成了侵害,请立即告知,我们将在第一时间处理。


追加内容

本文作者可以追加内容哦 !