最近黄仁勋比较出圈。有媒体提到,他在演讲中有这样的表述:“AI的尽头是光伏和储能!我们不能只想着算力,如果只考虑计算机,我们需要烧掉14个地球的能源。”

说实话,我没有找到这个表述,我理解黄仁勋在演讲中表达的观点是,如果计算机的单位计算效率不提升,就会出现能源怎么也不够的情况。但在他看来,计算效率的提升是明确的,

当然,对于AI耗能的担忧确实在业内引起了关注,OpenAI的创始人山姆·奥特曼(Sam Altman)和马斯克在不同场合都表达了对于AI消耗能源的担忧。那么,能源会成为限制AI发展的因素吗?

回答这个问题,有很多变量需要判断。

比如,AI到底需要消耗多少算力?这个问题在业界缺乏一致结论,从AI目前需要的算力类型来看,主要分为训练和推理。这两种需求对应的算力增长驱动因素有些差异。

对训练来说,有多少个在训练的大模型以及大模型的参数量级都会显著影响算力需求。但这两个问题在预测上都没法给出确切答案,毕竟chatGPT4的算力要求比之chatGPT3至少高出一个数量级,没人知道大语言模型的迭代会在chatGPT几点零缓慢下来。除此之外,大语言模型的泛化程度也决定了会有多少个主体训练大模型,这一点同样难以预计。

对推理来说,大模型的认知能力、泛化程度都会影响最终使用大模型的频率以及提供服务的大模型个数,因此对算力的消耗同样具有极大的不可预测性。可见,试图通过大模型本身来回答AI所需算力几乎是不可能的。正因如此,乐观者给出的百万倍算力增长需求也无法证伪,而基于如此乐观的假设,能源约束就不得不提上日程。但这不代表会必然发生。

回到研究,倒不是什么都不能做,虽然我们不能预测如此发散的需求变化,但我们可以算算量级,了解弹性。

这里我们用比较主流的DGX-A100来测算,单卡FP16的算力是312TFLOPS,单卡FP32的算力是156TFLOPS,系统功率6.5KW,按照我国智能计算能力179EFLOPS来计算,相当于115万张DGX-A100(FP32),再加上配套设施的耗电我们可以乘以1.4,按照一年60%的利用率,大概耗电在550亿度电的水平。如果增长10倍就是5500亿度电,100倍就是55000亿度电,我国2023年的全社会总用电量也就在9万亿度电出头,每年新增的用电量也就是在6-8%。虽然单卡的计算效率会逐步提升,但已经用上7nm工艺的芯片提升空间如果遇上百倍甚至千倍的需求增长,似乎也有很大挑战,最终如何演进,我们不妨拭目以待。

当然,有很多可以脑洞大开的可能,比如AI训练的需求增长后会不会成为不稳定电源消纳的有效途径,毕竟大模型参数的传输可比特高压效率高多了。也说不定我们真的会由于AI的发展而面临能源短缺,也说不定AI的进步会帮我们解决超导、解决能源问题呢,这是个充满无限可能的时代。

$中泰开阳价值优选混合A(OTCFUND|007549)$

$中泰星宇价值成长混合A(OTCFUND|012001)$

$中泰兴诚价值一年持有混合A(OTCFUND|010728)$

以上观点仅代表当下观点,且不构成投资建议。

追加内容

本文作者可以追加内容哦 !