$赣能股份(SZ000899)$  

近年来,人工智能(AI)的崛起引起了广泛的讨论和担忧,很多人担心 AI 会造成失业率飙升,而有些乐观的朋友则戏称“只要电费贵过馒头,AI 就永远不能完全代替人”。

虽然这是句玩笑话,但背后则是实实在在的AI能耗问题,越来越多的人担忧高能耗将成为制约 AI 发展的瓶颈。就在不久前,技术创业者、前谷歌工程师凯尔·科比特(Kyle Corbitt)在社交媒体 X 上表示,微软已经遇到了这方面的难题。

AI 到底有多费电?

科比特称,训练 GPT-6 的微软工程师们正忙着搭建 IB 网络(InfiniBand),把分布在不同地区的 GPU 连接起来。这项工作很困难,但他们别无选择,因为如果把超过 10 万块 H100 芯片部署在同一个地区,电网就会崩溃。

为什么这些芯片集中起来会导致电网崩溃的后果呢?让我们来简单算一笔账。

英伟达网站上公布的数据显示,每块 H100 芯片的峰值功率为 700W,10 万块 H100 峰值功耗最高可达 7000 万W。而 X 评论区有能源行业从业者指出,10 万块芯片的总能耗将相当于一座小型太阳能或风能发电厂的全部输出。除此之外,还要考虑这么多芯片的配套设施的能耗,包括服务器和冷却设备。这么多耗电设施,集中在一小片区域,给电网带来的压力可想而知。

AI 耗电,冰山一角

关于 AI 能耗问题,《纽约客》的报道一度引起广泛关注。报道估算,ChatGPT 每日耗电量或超过 50 万千瓦时。(参见:ChatGPT 日耗电超 50 万度,卡死AI发展的竟然是能源?)实际上,目前AI耗电量虽然看上去是个天文数字,但仍然远远不及加密货币和传统的数据中心。而微软工程师遇到的难题也表明,制约 AI 发展的不仅是技术本身的能耗,还有配套基础设施的能耗,以及电网的承载力。

国际能源署(IEA)发布的一份报告显示,2022 年全球数据中心、人工智能和加密货币的耗电量达到 460 TWh,占全球能耗的近 2%。IEA 预测,在最糟糕的情况下,到 2026 年这些领域的用电量将达 1000 TWh,与整个日本的用电量相当。

但是,报告同时显示,目前直接投入 AI 研发的能耗远低于数据中心和加密货币。英伟达在 AI 服务器市场中占据约 95%的份额,2023 年供应了约 10 万块芯片,每年耗电量约为 7.3 TWh。但是在 2022 年,加密货币的能耗为 110 TWh,与整个荷兰的用电量相当。


施,敦促数据中心实现节能减排的目标。其中,欧盟要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;中国政府也出台措施,要求数据中心从 2025 年起能效比不高于 1.3,并将可再生能源使用比例逐年上调,到 2032 年达到 100%。

科技公司用电,节流难开源更难

随着加密货币和 AI 的发展,各大科技公司的数据中心规模不断扩大。据国际能源署(IEA)统计,在 2022 年美国拥有 2700 座数据中心,消耗了全国用电量的 4%,并预测这一比例到 2026 年将达到 6%。随着美国东西海岸用地越发紧张,数据中心逐步向爱荷华州、俄亥俄州等中部地区转移,但这些二线地区原有的产业并不发达,电力供应可能无法满足需求。

一些技术公司尝试摆脱电网的束缚,直接从小型核电站购买电能,但这种用电方式和新建核电站都要面临复杂的行政流程。微软尝试使用 AI 辅助完成申请,而谷歌使用 AI 进行运算任务调度,以提高电网运行效率,降低企业碳排放。至于可控核聚变何时投入应用,目前仍然是未知数。

气候变暖,雪上加霜

AI 的研发需要稳定而强大的电网支持,但随着极端天气频发,许多地区的电网正在变得更加脆弱。气候变暖会导致更加频繁的极端天气事件,不仅造成用电需求激增,加重电网负担,还会直接冲击电网设施。IEA 报告指出,受干旱、降雨不足和提早融雪的影响,2023 年全球水力发电占比下跌到三十年来的最低值,不足 40%。

天然气往往被视为向可再生能源转型过程中的一座桥梁,但它在冬季极端天气下并不稳定。2021 年,寒潮袭击美国得克萨斯州,导致大面积断电,部分居民家中断电超过 70 小时。这次灾难的一个主要原因就是天然气管道冰冻,造成天然气发电厂停摆。北美电力可靠性委员会(North American Electric Reliability Council,简称 NERC)预测,在 2024-2028 年,美国、加拿大有超过 300 万人口面临越来越高的断电风险。

IEA 报告指出:“在变化的气候模式面前,提高能源多样化、提升电网跨区域调度能力和采取更加抗冲击的发电方式将变得越发重要。” 保障电网基础设施,不仅关系到 AI 技术的发展,更是关乎国计民生。

追加内容

本文作者可以追加内容哦 !