AI技术的飞速发展无疑已经引起了全球范围内的广泛关注。一方面,公众对于AI可能带来的失业问题感到担忧,另一方面,有观点认为,只要能源成本保持在合理水平,AI就无法完全取代人工。这种看似戏谑的观点实际上触及了一个核心问题——AI的能耗问题。人们越来越意识到,高能耗有可能成为限制AI发展的一个瓶颈。
近期,技术创业者、前工程师凯尔·科比特在社交媒体上提到,他所面临的正是这样的问题。AI的能耗究竟有多高?科比特指出,微软的工程师们正在努力构建一个IB网络,将不同地区的H100芯片连接起来。这一任务相当艰巨,但如果将超过10万块H100芯片集中在一个地区,很可能导致电网崩溃。
为了解释这种现象,我们可以进行一个简单的计算。根据网站上公布的数据,每块H100芯片的峰值功率为700W。那么,10万块H100芯片在峰值状态下的最高功率可达7000万W。能源行业的从业者在X评论区指出,这样的能耗相当于一座小型或中型发电厂的全部输出。我们还需要考虑芯片的配套设施,如服务器和冷却设备的能耗。这些高耗电设备集中在一个较小的区域内,对电网的压力是显而易见的。
AI的耗电量仅是冰山一角。有报道称,AI的每日耗电量可能超过50万千瓦时。尽管这一数字听起来惊人,但目前AI的耗电量仍然远远不及加密货币和传统的数据中心。微软工程师面临的难题表明,制约AI发展的不仅是技术本身的能耗,还包括配套基础设施的能耗,以及电网的承载力。2022年,全球数据中心、人工智能和加密货币的耗电量达到了460TWh,占全球能耗的近2%。国际能源署(IEA)预测,在最糟糕的情况下,到2026年这些领域的用电量将达到1000TWh,与整个某个国家的用电量相当。
目前,直接投入AI研发的能耗远低于数据中心和加密货币。英伟达在AI服务器市场中占据约95%的份额,2023年供应了约10万块芯片,每年耗电量约为7.3TWh。2022年,加密货币的能耗为110TWh,与某个国家的用电量相当。
冷却能耗同样不容忽视。数据中心的能效通常用PUE(功率使用效率)来评估,即消耗的所有能源与IT负载消耗的能源的比值。PUE值越接近于1,表明数据中心浪费的能源越少。数据中心标准组织Uptime Institute的报告显示,2020年全球大型数据中心的平均PUE约为1.59。也就是说,数据中心的IT设备每消耗1度电,其配套设备就消耗0.59度电。数据中心的额外能耗中,绝大部分应用于冷却系统。一项调查研究显示,冷却系统消耗的能量可达数据中心总能耗的40%。
随着芯片的更新换代,单台设备的功率增大,数据中心的功率密度(即单位面积耗电量)不断提升,对散热提出了更高的要求。但与此同时,通过改进数据中心设计,就能大幅减少能量的浪费。由于冷却系统、结构设计等各方面的差异,不同数据中心的PUE差异很大。Uptime Institute报告显示,某个国家已经把PUE降到了1.46,而在另一个国家仍有超过十分之一的数据中心PUE超过2.19。
世界各国正在采取措施,敦促数据中心实现节能减排的目标。其中,某个国家要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;某个国家政府也出台措施,要求数据中心从2025年起PUE不高于1.3,并将可再生能源使用比例逐年上调,到2032年达到100%。
随着加密货币和AI的发展,各大科技公司的数据中心规模不断扩大。据国际能源署统计,在2022年,美国拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。随着美国东西海岸用地越发紧张,数据中心逐步向某个国家等中部地区转移,但这些二线地区原有的产业并不发达,电力供应可能无法满足需求。一些技术公司尝试摆脱电网的束缚,直接从可再生能源购买电能,但这种用电方式和新建数据中心都要面临诸多挑战。
本文来自作者[scysry]投稿,不代表杨森号立场,如若转载,请注明出处:https://vip.scysry.com/zixue/202412-100797.html
评论列表(4条)
我是杨森号的签约作者“scysry”!
希望本篇文章《AI技术革命 全球电力供应面临严峻挑战 (ai技术革命助力行业发展)》能对你有所帮助!
本站[杨森号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:AI技术的飞速发展无疑已经引起了全球范围内的广泛关注,一方面,公众对于AI可能带来的失业问题感到担忧,另一方面,有观点认为,只要能源成本保持在合理水平,AI就无法完全取代人工,...