人工智能电老虎,14个地球的资源才够消耗;储能,光伏、核能要火

海泽钧2024-03-11 16:16黑龙江

人工智能的快速发展导致能源需求激增,特别是数据中心和大规模计算。生成式AI系统耗电量超乎想象,能源系统面临压力。AI能耗问题涉及模型训练和使用过程,以及高功率的AI服务器。行业正在努力提高AI芯片性能和寻找更便宜的能源解决方案,如核聚变和储能技术。同时,AI与影视等领域深度融合,推动产业变革。中国企业在储能领域迎来发展机遇,需研发更高效的电池技术以满足市场需求。

摘要由作者通过智能技术生成

有用

人工智能这块儿发展那可是嗖嗖滴快,不过它带来的一个问题咱也不能忽视——那就是能源。现在这人工智能越整越高级,用的电那是噌噌往上涨,把咱现有的电力系统都压得够呛。

就拿那个OpenAI家的ChatGPT来说吧,一天就能造掉超过50万千瓦时的电,就为了给那约摸两亿个用户的请求忙活,这电耗抵得上美国一般人家用电的1.7万多倍!要是生成式AI再这么广泛推广开去,电费账单估计能吓人一跳。

老黄仁勋在斯坦福大学那讲话说得明白,“AI走到最后还得靠光伏和储能扛大旗!光琢磨着怎么提高运算能力不行,照这么搞下去,光计算机就得耗掉14个地球的能量。以后的超级AI啊,那简直就是个填不满的电老虎窝。”

OpenAI的老总萨姆·奥尔特曼也发话了,说下一轮的生成型人工智能系统耗电量绝对是要超乎想象,到时候能源系统怕是接不住招。

马斯克那边也多次提到,这技术革命加上AI的发展,对能源的需求眼瞅着就要翻天覆地,特别是那些数据中心、大规模计算和智能电网这些地方,对电力的压力大得不是一星半点儿。

周鸿祎那头呢,也说了不止一次,人工智能最头疼的就是能源问题,这是阻碍它长远发展的老大难。

Huggingface 自家的 BLOOM 大模型,有 1760 亿参数,光是前期训练它,就得花掉 43.3 万度电,我换算了下,相当于国内 117 个家庭一年用掉的电量。

和它参数量相当的 GPT-3 ,耗电量就更不受控制,同样是前期训练,就要用掉 128.7 万度电,足足是前者的三倍。

甚至有人做过这样一个类比, OpenAI 每训练一次,就相当于 3000 辆特斯拉同时跑 32 公里。。。

这还只是 AI 前期训练用的电,在后期使用过程中累积的耗电量才是大头。一般来说,训练就是不断调整参数、重复训练,最后得到一个使用体验最好的模型,整个过程是有限度的。后期的推理过程就不一样了,比如我们用 ChatGPT ,每问一次问题都相当于是一次推理请求。现在 ChatGPT 的月活用户早已经破亿,它每天推理的频次的飙升可想而知。更具体一点,拿自动驾驶来说,前期训练花费的能耗成本就只有两三成,剩下的七八成都是后期的推理消耗的。

《晚点 LatePost 》之前也拿 ChatGPT 做了这么一个测算,按日均最高访问量 2.7 亿次来计算,假设每个人每次访问会问五个问题,一整个月下来光是推理消耗的电量就是 1872 万度。

总的来讲, AI 这几年来消耗的电力正在以指数级别增长,然而现在全球发电已经差不多已经趋于平缓。

照这个态势发展下去,估计再过几十年,光是 AI 的耗电量,就足以导致全球用电荒了。。。

来自 AMD ,红色表示 AI 能耗,绿色表示现有能源

而之所以这么耗电,一方面和近几年来 AI 圈子内部搞起的军备竞赛不无关系。

国外在 OpenAI 之后,谷歌、 Meta 自家大模型的研发迭代也没停过。

国内卷得就更厉害,百度的文心一言、阿里的通义千问、腾讯的混元等等等等,参数一个赛一个高,这还只是大厂们的赛道,一些大模型初创企业更是海了去了。

另一方面, AI 用掉这么多电,和它背后数据中心不无关系。

在数据中心,用电最多的地方就是 AI 服务器,因为要有大规模的计算,普通的服务器根本就不够用,还得用专属的 AI 服务器。

然鹅 AI 服务器,光是功率就比普通服务器高出了六七倍,普通服务器一般只需要两个 800W~1200W 的电源, AI 服务器,则要 4 颗 1800W 的高功率电源。

emmm 这不耗电都说不过去。。。

AI 的耗电,当然卷大模型的厂商比我们清楚得多,毕竟在他们那里可是真金白银的电费哗哗往外流。。。

所以在解决 AI 能耗的问题上,业内也是使出了浑身解数。

第一个办法是想办法提高 AI 芯片性能,性能上去了,耗电自然而然也就下去了。

另外一个办法就简单粗暴了,既然耗电多导致电费高,那找个更便宜的能源不就行了。

就比如国内目前就在搞 “ 东数西算 ” 的工程,在西部清洁能源丰富的地区建立数据中心,用来处理东部的数据。

并且东部地区数据中心密集,工商业的平均电价大概在 0.676 元 / 度,而西部地区平均电价在 0.541 元 / 度,钱不就这么省下来了么。

总结起来就是一句话,人工智能要想真正跑到终点,能源自给自足那是关键。所以啊,早点儿在能源这盘棋上下功夫,那才是在掌控未来的科技命脉。太阳能、储能还有核聚变这些清洁又高效的能源技术,那都是给人工智能解渴的救命水。另外,提高能源使用效率,别乱糟蹋电,这也是解决问题的一个重要法子。

像 OpenAI 和微软都先后投资了核能发电,不过不是传统的核裂变发电方式,而是还在实验室阶段的核聚变。早在 2015 年, OpenAI CEO 奥特曼就对核聚变发电感兴趣了,向一家核聚变初创企业 Helion 投资了 950 万美金, 2021 年,又给它豪掷了 3.75 亿美元。


追加内容

本文作者可以追加内容哦 !