$晋控电力(SZ000767)$  

数据中心的能耗和算力问题已经成为AI发展的一个警示信号。据最新报告显示,训练AI模型所需的能耗是常规云工作的三倍。而预计到2030年,美国数据中心的电力需求将以每年约10%的速度增长。这意味着数据中心的能源消耗将变得越来越庞大,而这也归根结底是AI发展中算力对电力的需求不断增加所导致的。


以OpenAI训练GPT-3为例,其耗电量达到了1.287吉瓦时,相当于120个美国家庭1年的用电量。而这仅仅是训练AI模型的前期电力,仅占模型实际使用时所消耗电力的40%。这显示了AI训练过程中能耗的巨大规模。


另外,谷歌AI每年的耗电量达到了2.3太瓦时,相当于亚特兰大所有家庭1年的用电量。这也说明了AI对电力的巨大需求。


AI服务器的功率较普通服务器高6-8倍,这也带来了对电源的需求增加。通用型服务器原本只需要2颗800W服务器电源,而AI服务器的需求直接提升为4颗1800W高功率电源。这意味着服务器能耗成本直接增加了3倍。


根据预测,到2028年,数据中心的功耗将接近4250兆瓦,比2023年增加了212倍。这也意味着数据中心基础设施和运营成本将大幅增加,预计超过760亿美元。


从以上数据可以看出,AI对电力的依赖将会越来越大。随着AI模型的不断发展和训练规模的增加,对算力的需求也会越来越高,而算力的瓶颈归根到底还是电力。因此,未来AI对电力的依赖将会越来越大。


为了解决这个问题,有必要研发更加高效的算法和训练方法,以减少AI模型训练过程中的能耗。同时,也需要加大对可再生能源的利用,以减少对传统能源的依赖,并推动数据中心的能源管理和优化。只有在能源的可持续利用和供给方面取得突破,才能确保AI的持续发展,并降低对环境的影响。


#人工智能#电力

追加内容

本文作者可以追加内容哦 !