随着人工智能技术的飞速发展,其能耗问题逐渐成为公众关注的焦点。本文将详细分析AI能耗的现状、影响因素以及未来发展趋势,以期为AI的可持续发展提供参考。
AI能耗的现状与挑战
人工智能技术的崛起,尤其是大型模型如GPT-6的训练,对电力的需求急剧增加。微软工程师在训练GPT-6时,面临的主要难题是如何将超过10万块H100芯片分布在不同地区,以避免电网崩溃。这是因为,据微软数据显示,每块H100芯片的峰值功率为700W,10万块H100芯片的峰值功率可达7000万W,相当于一座小型或中型发电厂的全部输出。而这一数字还未包括服务器和冷却设备的能耗。
能耗问题的多方面影响
AI能耗问题不仅限于技术本身的能耗,还包括配套基础设施的能耗和电网的承载力。根据《》的报道,AI的日耗电量可能超过50万千瓦时。虽然这个数字看起来庞大,但与加密货币和传统数据中心相比,AI的能耗仍然较低。2022年全球数据中心、人工智能和加密货币的耗电量达到460TWh,占全球能耗的近2%。国际能源署(IEA)预测,到2026年,在最糟糕的情况下,这些领域的用电量将达到1000TWh,相当于整个国家的用电量。
数据中心的能效与冷却能耗
数据中心的能效通常用功率使用效率(PUE)来评估,即消耗的所有能源与IT负载消耗的能源的比值。全球大型数据中心的平均PUE约为1.59,意味着数据中心的IT设备每消耗1度电,其配套设备就消耗0.59度电。数据中心的额外能耗中,绝大部分应用于冷却系统,冷却系统消耗的能量可达数据中心总能耗的40%。随着芯片更新换代,数据中心的功率密度不断提升,对散热提出了更高的要求。
全球各国的节能减排措施
世界各国正采取措施,敦促数据中心实现节能减排的目标。例如,要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;中国政府也出台措施,要求数据中心从2025年起PUE不高于1.3,并将可再生能源使用比例逐年上调,到2032年达到100%。
科技公司的用电挑战
随着加密货币和AI的发展,各大科技公司的数据中心规模不断扩大。在美国,拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。随着东西海岸用地越发紧张,数据中心逐步向中部地区转移,但这些地区的电力供应可能无法满足需求。一些技术公司尝试摆脱电网的束缚,直接从可再生能源购买电能,但这种用电方式和新建设施都需要大量的初期投资和长期维护。
结论
AI技术的能耗问题是一个复杂且多维的挑战,涉及技术、基础设施、电网承载力以及全球能源政策等多个方面。为了实现AI的可持续发展,需要全球范围内的合作和创新,包括提高数据中心的能效、发展绿色能源、优化能源政策等。只有这样,才能在保证AI技术进步的同时,减少对环境的影响,实现人与自然的和谐共生。
本文来自作者[scysry]投稿,不代表杨森号立场,如若转载,请注明出处:https://vip.scysry.com/zixue/202412-101317.html
评论列表(4条)
我是杨森号的签约作者“scysry”!
希望本篇文章《正在 AI 全球电力 更可怕的事还在后面 吸干》能对你有所帮助!
本站[杨森号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:随着人工智能技术的飞速发展,其能耗问题逐渐成为公众关注的焦点,本文将详细分析AI能耗的现状、影响因素以及未来发展趋势,以期为AI的可持续发展提供参考,AI能耗的现状与挑战人工智...