发布时间:2024-12-21 16:46:28 来源: sp20241221
“人工智能耗电远大于数据中心”“人工智能发展将让现有电网崩溃”“科技公司要建核电站”……近段时间举行的多个国际会议上,一些科技巨头纷纷表达了对人工智能高能耗问题的担忧。面对人工智能发展对电力系统的潜在影响,国家能源局公开回应,将密切跟踪人工智能等高新技术发展趋势,分析研判电力需求增长态势,系统谋划保供举措,确保能源稳定供应与需求增长相适应。
人工智能真的会导致电力短缺吗?当下各行各业都尝试搭上人工智能“顺风车”。然而,开发和运行人工智能都离不开能源保障。以网上流行的人工智能生成图片功能为例,每生成一幅图片,消耗的电量相当于一部智能手机充满电的电量。英伟达H100型GPU芯片是目前人工智能算法最常用的芯片之一,一块这样的芯片一年消耗的电量比一个中等规模的家庭都要多。大规模部署人工智能的能耗更令人吃惊,据估计,从2027年起,仅人工智能新增的服务器,一年消耗的电量就相当于荷兰或瑞典这样国家的总耗电量。
最新预警来自埃隆·马斯克,他公开指出,人工智能消耗的算力似乎每6个月就会增加10倍,一年多以前短缺的是芯片,接下来短缺的将是电力,“很快人们将会看到没有足够的电力来运行所有的人工智能芯片”。除了科技大佬,人工智能崛起也引起了更多人的讨论和担忧,大家担心人工智能会造成失业率飙升,对此有网友戏称“只要电费贵过馒头,人工智能就永远不能完全代替人”。
为何人工智能如此耗电?在人们印象中,钢铁、水泥等传统产业才是耗电大户,很难将科技公司与高耗能挂起钩来。实际上,人工智能产业也是能源密集型产业。今天的电子计算机产业建立在集成电路基础上,人们通常称为芯片。每个芯片中都有许多晶体管,用来承担“开关”功能,计算机通过快速改变电压,来拨动这些开关从而实现二进制逻辑运算。随着技术进步,单位芯片上的晶体管数量越来越多,每平方毫米面积上甚至能集成上亿个晶体管。再小的功耗碰上这个规模,耗电量也非常可观。
训练大模型需要在大规模数据集上反复迭代,每一次迭代都需要计算和调整其中数十亿个、数百亿个乃至数千亿个参数值,这些计算最终会表现为晶体管的开开关关,每次工作都需要电力来驱动。对于神经网络而言,规模越大,计算结果就越好,可以解决的问题就越多,但耗电量也越大。更重要的是,这种计算并非一劳永逸,需要不断重新训练、重新优化模型,这也意味着人工智能迭代对于算力和电力的需求,似乎看不到“天花板”。
人工智能发展的前提是,不能大幅新增碳排放量和危及能源安全。虽然目前人工智能整体用电规模占比较低,还不足以威胁电力系统,但应对快速增长的用电需求,必须重新考虑电力基础设施投资和产业布局,以实现可持续发展。
在电源侧,要统筹算力电力协同布局。我国已建成全球规模最大的电力供应系统和清洁发电体系,水电、风电、光伏发电规模多年居世界第一位。在广大西部、北部地区,可再生能源、土地资源丰富,且随着新能源装机不断提升,未来电量消纳存在挑战;东部地区受土地、水电、运维等要素影响,数据中心运营成本较高。因此,可引导对延时要求不高的数据中心向西部地区聚集,实现数据的差异化处理,既有助于绿电消纳、西部地区经济发展,又能促进数据中心低碳转型、保障能源安全,将我国绿电优势真正转化为算力优势。
在用电侧,要加快低碳节能技术发展。当前人工智能的运行方式非常耗能,应积极寻求更节能高效的算法和电子元器件,提升数据中心上架率。同时,通过改进数据中心设计,优化冷却系统,设立余热回收设备,切实提高数据中心能效水平,降低能源浪费。
未来,人工智能将深度融入我们的生产生活,能耗问题虽值得重视,但大可不必因噎废食。相信随着技术进步、市场发展和生产力布局优化,行业将会找到合适的解决方案来平衡算力和能耗需求,实现高质量发展。
【编辑:刘阳禾】