人工智能(AI)技术的迅猛发展引起了全球范围内的关注。一方面,人们担忧AI技术可能导致就业岗位减少,另一方面,也有人以幽默的方式表达了对AI高能耗的担忧。尽管这些担忧中包含了戏谑的成分,但它们触及了一个严肃的问题——AI的能耗问题。随着技术的不断进步,AI能耗问题日益凸显,成为制约其发展的关键因素之一。
AI能耗的现状与挑战
据技术创业者、前微软工程师凯尔·科比特披露,在训练GPT-6的过程中,微软工程师们面临了能耗的巨大挑战。他们不得不构建跨地域的IB网络,以分散部署超过10万块H100芯片,避免超负荷导致的电网崩溃。这一现象揭示了AI能耗问题的严重性。每块H100芯片的峰值功率为700W,10万块H100芯片的峰值功率可达7000万W。这一能耗相当于一座小型或中型发电厂的全部输出。还需考虑服务器和冷却设备的能耗,这些配套设施的能耗同样不容小觑。
AI能耗与全球能源消耗比较
虽然AI的耗电量看似惊人,但与加密货币和传统数据中心相比,其能耗仍然较低。微软工程师遇到的难题不仅涉及AI本身的技术能耗,还包括配套基础设施的能耗和电网的承载能力。根据《金融时报》的报道,全球数据中心、人工智能和加密货币的耗电量在2022年达到了460TWh,占全球能耗的近2%。IEA预测,在最糟糕的情况下,到2026年这些领域的用电量将达1000TWh,与整个法国的用电量相当。
数据中心的能效与冷却能耗
数据中心的能效通常用PUE(电源使用效率)来评估,即数据中心消耗的所有能源与IT负载消耗的能源的比值。PUE越接近1,表明数据中心浪费的能源越少。UptimeInstitute的报告显示,2020年全球大型数据中心的平均PUE约为1.59,意味着IT设备每消耗1度电,其配套设备就消耗0.59度电。其中,冷却系统消耗的能量可达数据中心总能耗的40%。随着芯片更新换代,单台设备的功率增大,数据中心的功率密度不断提升,对散热提出了更高的要求。通过改进数据中心设计,可以大幅减少能量的浪费。不同数据中心的PUE差异很大,例如挪威已经将PUE降至1.46,而在印度仍有超过十分之一的数据中心PUE超过2.19。
全球节能减排措施
面对AI能耗问题,世界各国正在采取一系列措施,敦促数据中心实现节能减排的目标。例如,要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;中国政府也出台措施,要求数据中心从2025年起PUE不高于1.3,并将可再生能源使用比例逐年上调,到2032年达到100%。
科技公司面临的挑战
随着加密货币和AI的发展,各大科技公司的数据中心规模不断扩大。据国际能源署统计,在2022年美国拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。随着美国东西海岸用地越发紧张,数据中心逐步向俄亥俄州、田纳西州等中部地区转移,但这些二线地区原有的产业并不发达,电力供应可能无法满足需求。一些技术公司尝试摆脱电网的束缚,直接从风力或太阳能发电站购买电能,但这种用电方式和新建电站都面临着技术和成本的双重挑战。
AI能耗问题是一个复杂且多维的议题,它不仅关系到技术的发展和应用,还涉及到全球能源消耗和环境保护。随着AI技术的进步,解决能耗问题已成为一个迫切需要关注和解决的全球性挑战。
本文来自作者[scysry]投稿,不代表杨森号立场,如若转载,请注明出处:https://vip.scysry.com/zixue/202412-101673.html
评论列表(4条)
我是杨森号的签约作者“scysry”!
希望本篇文章《能源消耗激增 全球电力危机背后的真相 AI (能源消耗降低)》能对你有所帮助!
本站[杨森号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:人工智能,AI,技术的迅猛发展引起了全球范围内的关注,一方面,人们担忧AI技术可能导致就业岗位减少,另一方面,也有人以幽默的方式表达了对AI高能耗的担忧,尽管这些担忧中包含了戏...