目前全球人工智能公司的服务器市场几乎被英伟达垄断了,其全球市场份额高达95%以上,所以仅从英伟达这家公司的出货情况就能计算出一家人工智能公司的能耗数据。举例来说,按照一家独立研究机构SemiAnalysis的计算,OpenAI大约需要3617个英伟达HGX A-100服务器来支持其ChatGPT的使用,这些服务器一共包含28936个图形处理器(GPU),每天的总能耗高达564MWh,即56.4万度电。
同理,这家机构估计如果谷歌搜索全盘人工智能化的话,将需要512821个英伟达HGX A-100服务器。如果按照每个服务器的额定功率为6.5kW来计算的话,光是这些服务器每天就将消耗80GWh的电力,相当于每年耗电29.2TWh。另一家独立研究机构New Street Research的估算结果稍低,认为谷歌的人工智能改造将需要40万个英伟达服务器,每天耗能62.4GWh,每年耗电22.8TWh。这两个估算结果要比前文从需求侧给出的计算结果高一些,但属于同一个数量级。
考虑到谷歌公司2021年全年的能耗仅为18.3TWh,当年人工智能部门的能耗仅为10%~15%这一事实,未来谷歌如果全盘人工智能化的话,其总体能耗将会是一个令人震惊的数字。根据德弗里斯文章中的估算,仅仅谷歌的人工智能部门几年后的年耗电量就有可能和爱尔兰全国的电力消耗量(29.3TWh)相当。要知道,三峡水电站全年的发电量大约为100TWh。换句话说,仅仅谷歌一家公司的人工智能部门就有可能在不远的将来消耗掉三峡水电站三分之一的电力。
根据最新研究,预计到2027年,近一半的人工智能(AI)数据中心可能将面临电力供应不足的问题。而当今的数据中心已经消耗了大量电力,全球每年需要 460 太瓦时 (TWh) 的电力,相当于整个德国的用电量。
根据国际能源署(IEA)的报告,源于人工智能应用的增加,全球数据中心的总耗电量预计从 2022 年的约 460 TWh增长到 2026 年的超过1000 TWh。
人工智能这边也是一样,国际能源署(IEA)发布的2024年报告预测,到2026年,AI数据中心的电力需求将达到90TWh,这相当于730万台H100 GPU的用电量。更有机构预测,到 2030 年将再增长 1,150%,达到 652 TWh。(AI不是泡沫的话)
本文作者可以追加内容哦 !