在当今的技术发展中,人工智能(AI)的崛起无疑是一个中心议题。它不仅激发了广泛的讨论,也引起了人们对其潜在影响的担忧。一方面,有人担心AI可能会导致就业岗位的减少,另一方面,也有人以幽默的态度看待这个问题,认为只要电费价格高于基本生活成本,AI就不能完全取代人类。这种观点虽然轻松,但它触及了AI能耗问题的实质,这是一个越来越受到关注的话题,人们担心高能耗可能成为AI发展的瓶颈。
不久前,技术创业者和前工程师凯尔·科比特在社交媒体上分享了他的观点,提到了AI能耗问题的具体挑战。他指出,微软工程师正在努力搭建一个分布式的基础设施网络,以连接分布在不同地区的大数据和计算资源,这是因为如果将超过10万块H100芯片集中部署在一个地区,可能会导致当地电网的崩溃。这种风险的原因是什么呢?
根据公布的数据,每块H100芯片的峰值功率为700瓦特,那么10万块芯片的峰值功率将达到7000万瓦特。能源行业从业者指出,这样的能耗相当于一座小型或中等规模发电厂的全部输出。我们还需要考虑到与这些芯片配套的其他设施,如服务器和冷却系统的能耗。这些高耗电设施集中在一个小区域内,对电网的压力是巨大的。
AI的耗电量只是冰山一角。有报道估算,AI的日常耗电量可能超过50万千瓦时。虽然这个数字听起来很庞大,但与加密货币和传统数据中心的耗电量相比,仍然是相对较小的。微软工程师面临的挑战表明,AI的发展不仅受到技术本身能耗的限制,还受到配套基础设施能耗和电网承载力的限制。全球数据中心、人工智能和加密货币的耗电量在2022年达到了460太瓦时,占全球能耗的近2%。国际能源署(IEA)预测,在最糟糕的情况下,到2026年这些领域的用电量将达到1000太瓦时,相当于整个法国的用电量。
目前直接投入到AI研发的能耗仍然低于数据中心和加密货币。英伟达在AI服务器市场中占据了约95%的份额,2023年供应了约10万块芯片,每年耗电量约为7.3太瓦时。与此同时,2022年加密货币的能耗为110太瓦时,与整个法国的用电量相当。
数据中心的能效评估通常使用PUE(Power Usage Effectiveness)指标,即消耗的所有能源与IT负载消耗的能源的比值。PUE越接近于1,表明数据中心浪费的能源越少。UptimeInstitute的报告显示,2020年全球大型数据中心的平均PUE约为1.59。这意味着,数据中心的IT设备每消耗1度电,其配套设备就消耗0.59度电。在数据中心的额外能耗中,绝大部分用于冷却系统。研究显示,冷却系统消耗的能量可达数据中心总能耗的40%。随着芯片技术的更新换代和功率密度的提升,对散热的要求也在不断提高。通过改进数据中心设计,可以大幅减少能量的浪费。
不同数据中心的PUE差异很大,这取决于冷却系统、结构设计等方面的不同。UptimeInstitute的报告显示,新加坡已经将PUE降到了1.46,而在印度,仍有超过十分之一的数据中心PUE超过2.19。世界各国正在采取措施,敦促数据中心实现节能减排的目标。例如,欧盟要求大型数据中心设立余热回收设备;美国政府投资研发更高能效的半导体;中国政府也出台措施,要求数据中心从2025年起PUE不高于1.3,并将可再生能源使用比例逐年上调,到2032年达到100%。
随着加密货币和AI的发展,各大科技公司的数据中心规模不断扩大。国际能源署统计显示,在2022年美国拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。随着美国东西海岸用地越发紧张,数据中心逐步向中部地区转移,但这些地区原有的产业并不发达,电力供应可能无法满足需求。一些技术公司尝试摆脱电网的束缚,直接从可再生能源购买电能,但这种用电方式和新建都要面临相应的挑战。
AI能耗问题是一个复杂的问题,涉及到技术发展、基础设施建设、电网承载能力以及环境可持续性等多个方面。随着技术的进步和社会对环保意识的增强,如何平衡AI的发展与能耗问题,将是未来一个重要的研究和讨论议题。
本文来自作者[scysry]投稿,不代表杨森号立场,如若转载,请注明出处:https://vip.scysry.com/zixue/202412-100971.html
评论列表(4条)
我是杨森号的签约作者“scysry”!
希望本篇文章《全球电力面临严峻挑战 未来形势更为严峻 AI能源消耗惊人 (全球电力面临的困境)》能对你有所帮助!
本站[杨森号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:在当今的技术发展中,人工智能,AI,的崛起无疑是一个中心议题,它不仅激发了广泛的讨论,也引起了人们对其潜在影响的担忧,一方面,有人担心AI可能会导致就业岗位的减少,另一方面,也...