在享受智能手机的便捷、人工智能的高效、云计算的强大时,我们很少停下来思考:这些日益普及的技术,背后究竟依赖着多少能源?从智能手机的快速运算,到云端服务器的海量数据处理,再到智能家居的自我学习,背后都有一个共同的隐形力量 —— 算力。
然而,算力并非无止境,这股力量的尽头,正是能源的极限。算力的增长和普及离不开能源的强力支撑,其尽头在于能源。能源的获取、利用效率、分配和可持续性,将决定算力未来发展的边界。
算力与能源,仿佛是两根交织的命脉,缺一不可。每一次技术的突破,都会伴随着对计算能力的更高需求,而这一切的背后,离不开对电力的依赖。最近,在白宫举行的一次会议上,OpenAI 首席执行官山姆・奥特曼(Sam Altman)提出,随着 AI 技术的飞速发展,能源需求急剧增加,这已成为不可忽视的现实。在与全球 AI 行业巨头们汇聚一堂时,奥特曼毫不掩饰地发出了迫切呼吁:“我们需要更多能源,而且要快。”
这一呼声,标志着在数字时代,算力与能源的关系已进入前所未有的紧张态势。在这一背景下,远景科技集团董事长张雷在 “2024 央视财经跨年演讲” 中指出:“今天,当我们进入人工智能时代,发现原来能量可以制造智力,只有超级的能量和算力,才能创造超级的智力,人工智能的尽头居然是能源。”
![](https://imgpai.thepaper.cn/newpai/image/1739274970876_nQpEwi_1739274979749.jpg?x-oss-process=image/resize,w_1024)
视觉中国 图
算力为何与能源密不可分?
算力是计算设备执行指令、处理数据的能力,而这些设备的运行需要依赖能源,尤其是电力。随着人工智能的迅猛发展,算力需求正以更高的速度上升,导致能源压力日益增大。从芯片运算到设备散热,从硬件制造到冷却系统维护,算力的每一步都消耗着大量能源。据 Synthesia 称,英伟达的 AI 服务器每年至少需要 85.4 太瓦时的电力,这一耗电量相当于荷兰一年的用电量。
以人工智能领域的语言模型为例,训练一个大型生成式模型,通常需要数千张高性能 GPU 或 TPU 并行工作数周,消耗的电力足以支撑一个中型城市运转数月。根据美国电力研究院(Electric Power Research Institute,简称 EPRI)的数据,每项 ChatGPT 请求消耗的能源是标准(非 AI)谷歌搜索请求的 10 倍。该组织预测,到 2030 年,数据中心耗电量占美国全部发电量的比例将高达 9.1%,而目前这一比例为 4%。
在这种背景下,尽管某些技术进步似乎可以缓解算力需求的快速增长。例如,官方披露的 DeepSeek V3 模型在 14.8T 高质量 token 数据上进行预训练时,所使用的算力仅为同类模型 Llama 3 的 1/11。这个数据给许多人带来了希望,似乎意味着未来的大型 AI 模型不再需要如此庞大的计算资源,从而可以缓解能源压力。但从产业发展的长期趋势来看,这种乐观预期或许过于简单。
AI 模型的商业化进程,很可能出现 “前沿与追随” 并存的双轨格局。前沿模型依赖先进推理架构和算法,用于解决复杂问题并获得丰厚的商业回报,这类模型对算力的需求极大;而追随模型则以低成本进入中低端市场,在规模化应用时仍需大量算力来保证应用效率。
无论是前沿模型还是追随模型,二者的共同特点是对算力的需求不断增长。尽管单个模型可通过算法优化或硬件效率提升降低训练能耗,但总体来看,算力需求与能源消耗却呈现出指数级的增长态势。因此,尽管技术创新短期内会带来一些节能效应,但随着 AI 技术应用的普及和深化,算力需求将不可避免地继续攀升,能源瓶颈也将愈加凸显。
为此,在白宫会议后,奥特曼与 AI 行业的领军人物共同提出了名为《基础设施关乎前途命运》(Infrastructure Is Destiny)的提案,呼吁美国政府在多个州建设若干个装机容量为 5 吉瓦的大型发电站,以应对日益增长的 AI 能源需求。每座 5 吉瓦的发电站成本高达 1000 亿美元,专为 OpenAI 及其他 AI 前沿公司提供电力支持。这一提案反映了数字社会中算力与能源之间日益加剧的冲突。当前,全球 5 - 7 家科技巨头大量使用算力资源,训练和运行新一代 AI 模型,对这种规模的发电站需求十分迫切。5 吉瓦的容量只是对未来算力需求的初步估算,随着技术发展,这一需求还可能进一步上升。
能源的边界:摩尔定律的悖论
摩尔定律曾是半导体行业发展的核心法则:芯片的计算能力每 18 个月翻一番,且单位功耗保持不变。这个定律促进了芯片性能的提升,也在一定程度上带动了算力的扩展。然而,随着芯片工艺逐渐逼近物理极限,摩尔定律的 “魔力” 开始衰退,单位算力的功耗并未显著下降。换句话说,算力的增长速度,已经超越了单纯依赖芯片工艺进步的阶段,更多依赖于硬件数量的增加和计算资源的集中,而这直接导致了能源消耗的加剧。我们不得不面对一个日益严峻的问题:能源供应是否能跟得上这一增长的算力需求?
全球数据中心的能源消耗正处于快速增长之中。根据国际能源署(IEA)的预测,到 2026 年,全球数据中心和 AI 行业的电力需求将翻倍。美国的情况尤为严峻,美国能源部估计,到 2027 年,50% 的新数据中心将面临电力不足的问题。预计到 2030 年,仅美国的数据中心电力需求将达到 35 吉瓦,几乎是 2022 年需求的两倍。而这仅仅是 AI 与大数据等高算力需求的初步反映。随着生成式 AI 和机器学习等技术的深入发展,算力需求将继续攀升。这种增长趋势,正迫使全球科技公司在算力需求和能源供应之间,做出艰难的抉择。
除了电力能源之外,数据中心还消耗大量的水资源。总部位于香港的智库 “中国水风险” 指出,目前中国内地 430 万个数据中心机柜的耗水量约为 13 亿立方米,约为天津全市居民用水量的 1.9 倍;到 2030 年可能会增加到 1130 万个机柜,耗水量超过 30 亿立方米。报告亦指出,随着聊天机器人的兴起,相较传统搜索,聊天机器人可能导致用水量激增 20 倍。
![](https://imgpai.thepaper.cn/newpai/image/1739275025764_Z72Rx2_1739275033857.jpg?x-oss-process=image/resize,w_1024)
视觉中国 图
能源的来源:科技巨头如何应对能源危机
面对日益严峻的能源瓶颈,全球科技巨头纷纷提出解决方案,力图在算力需求与能源供给之间找到平衡点。无论是核能、可再生能源,还是边缘计算、冷却技术等一系列创新方案,都在寻找突破口,试图为未来算力的可持续增长铺路。
1.核能:稳定但不完美的选择
核能不仅能够提供高效且稳定的电力供应,还具备低碳的优势,因此成为许多科技公司解决能源瓶颈的关键选择。亚马逊、谷歌和微软等公司,都在积极探索将核能作为支撑数据中心算力的稳定电力来源。
例如,亚马逊已经在宾夕法尼亚州建设了一个靠近核电站的数据中心,以便直接利用核电的稳定供应。与此同时,亚马逊宣布将投资超过 5 亿美元开发小型模块化核反应堆(SMR),以满足其云计算服务扩展到生成性 AI 时对清洁能源的巨大需求,并作为实现净零碳排放的一部分。亚马逊网络服务(AWS)已与弗吉尼亚州公用事业公司 Dominion Energy 达成协议,探索在现有的 North Anna 核电站附近开发 SMR。SMR 具有更小的占地面积、更快的建设时间,能够更快地接入电网。亚马逊还与 Energy Northwest 达成协议,资助在华盛顿州开发四个 SMR,这些反应堆将直接向电网供电,帮助满足亚马逊运营的能源需求。
微软(Microsoft Corp.)更是与核能初创公司合作,开发小型模块化反应堆(SMR),以提供更灵活的核能解决方案。最近,微软达成协议,计划在2028年重启已经退役的三哩岛核电站(Three Mile Island),并购买该站的全部电力供应。
尽管核能具有低碳、稳定的优势,但它也面临着巨大的挑战。首先是高昂的建设和维护成本,其次是核废料的处理和管理问题。此外,公众对核能安全存在担忧,当地居民可能会抵制(英文中有 NIMBY 这个说法,即 Not In My Backyard,一项有意义的公共工程人人都希望建设,但不希望建在自己社区附近)。再考虑到漫长的许可和建设过程,核电作为一种解决方案只能发挥有限作用。
2.可再生能源:绿色能源的追寻
![](https://imgpai.thepaper.cn/newpai/image/1739275091006_1m6kWw_1739275101198.jpg?x-oss-process=image/resize,w_1024)
2024年12月10日,广东湛江,麻章区湖光镇蔡屋村光伏太阳能发电。视觉中国 资料图
除了核能,越来越多的科技公司开始转向可再生能源,如风能、太阳能等,以应对日益增长的能源需求。苹果公司通过大规模投资太阳能和风能,已经实现了其数据中心 100% 依赖可再生能源的目标。Meta 也在北欧建设了多个绿色数据中心,利用当地丰富的水力和风力资源,为其全球业务提供清洁能源。
最近,谷歌宣布与美国能源公司 Intersect Power 和投资公司 TPG Rise Climate 携手,共同投资 200 亿美元,在美国打造多个由可再生能源供电的工业园区,旨在为数据中心供应清洁能源,减少碳排放。首个园区预计将于 2026 年部分投入运营,2027 年全面竣工。如果成功,这将极大地改变数据中心的建设和运营方式。谷歌及其竞争对手一直在努力为能源密集型 AI 数据中心寻找清洁能源来源。然而,美国的电力供应仍主要依赖化石燃料,新数据中心接入电网会导致更多的污染。通过这一新的合作伙伴关系,谷歌可以直接连接到太阳能、风能和电池等可再生能源,绕过传统电网,从而降低碳排放。
谷歌全球数据中心能源主管 Amanda Peterson Corio 在一份新闻稿中表示:“AI 的规模为我们提供了彻底重新思考数据中心开发的机会。为了实现 AI 的潜力,必须以新的清洁能源来源来满足不断增长的电力需求。”
然而,可再生能源也并非没有缺陷。风能和太阳能的间歇性特质,使得它们无法保证全天候稳定供应。而这一问题,直接影响了数据中心的能源保障。如何解决可再生能源的波动性,以及如何高效储存和调度这些能源,依旧是摆在科技公司面前的一大挑战。
3.中国的 “东数西算”:资源优化的探索
在中国,随着数字经济的崛起,算力需求的爆炸性增长同样带来了巨大的能源与环境压力。为此,中国提出了 “东数西算” 战略,旨在通过将数据中心从东部能源密集地区迁移至西部,以此缓解东部能源供应紧张的困境。西部地区水利和风能资源丰富,使得这一战略在一定程度上为解决能源供应问题提供了可行的路径。
然而,这一战略并非没有挑战。西部地区水资源紧张,且大量的数据中心需要消耗巨量水资源进行冷却。同时,尽管中国在推广清洁能源方面取得了一定进展,但许多数据中心仍然依赖于燃煤电力,这使得碳排放问题依然严峻。
技术突破:未来算力能源的希望与可能
技术创新或许能够为破解算力与能源之间的矛盾提供新的希望。边缘计算、量子计算、冷却技术等前沿技术,正在为数据中心的能源消耗提供创新解决方案。边缘计算通过将计算任务分布到靠近用户的终端设备或本地节点,减少了对集中式数据中心的依赖。这不仅降低了能耗,还能提升数据处理效率。随着 5G 和物联网(IoT)的普及,边缘计算可能成为未来算力发展的一大趋势。
冷却技术的进步也不容忽视。随着计算密集型任务的增多,数据中心的冷却技术成为了减少能耗的关键。传统的空调和风冷系统不仅效率低下,而且耗能巨大。例如,利用寒冷地区的自然气候,数据中心可以显著减少对传统冷却设备的依赖,同时降低能耗和运营成本。近年来,液冷技术和浸没式冷却技术的出现,为数据中心提供了更为高效的解决方案。
另一种可能性是量子计算。量子计算利用量子力学的原理,能够在某些特定任务中以极低的能耗完成传统计算机难以企及的运算。虽然量子计算目前仍处于实验阶段,但一旦技术突破并进入实际应用,它有可能大幅度减少算力对能源的需求,为解决能源瓶颈提供革命性解决方案。
算力的未来:能源限制中的平衡艺术
算力的尽头是能源,这不仅是一种物理限制,更是一种哲学反思。算力的增长是否应当无止境?我们是否能够在能源的边界内找到技术发展的最佳路径?
在可预见的未来,算力的增长将更多地依赖能源的创新性供给和更高效的资源利用。无论是核能、可再生能源,还是边缘计算、量子计算,这些技术都需要在能源、环境和社会责任之间找到平衡。科技发展的意义不在于无限制地追求算力的堆积,而在于如何让这些算力更高效地服务于人类社会。
能源的尽头,不仅是技术的边界,更是责任的开端。通过全球范围内的合作与探索,我们有机会在算力与能源之间找到新的平衡,让数字社会在可持续发展的轨道上稳步前行。唯有如此,算力才能成为驱动人类未来的真正动力,而非无尽消耗资源的代名词。
(作者胡逸,一个喜欢畅想未来的数据工作者。“未来可期” 是胡逸在澎湃科技开设的独家专栏。著有《未来可期:与人工智能同行》一书,由果麦文化出品。)
还没有评论,来说两句吧...