舒畅:AI将成为“吃电虎”,能源不足的国家还怎么玩?
舒畅:AI将成为“吃电虎”,能源不足的国家还怎么玩?
随着 AI 进入下一个阶段,尤其是大型生成式模型的广泛应用,大家逐渐意识到一个惊人的现实:AI 是一个**“电老虎”**,它不仅需要大量数据,还要吞噬海量电能。那这是一种危机,是泡沫中的梦,还是未来的机会?下面我来谈谈我的看法:
首先,千万不要小看 AI 的能耗——每训练一个大型 NLP 模型(比如 BERT 或 GPT 这样规模的)就可能排放 284 吨 CO?,相当于 5 辆汽车一生的排放,也等同于纽约与北京之间往返 125 次的航班碳排放。
让我解释一下什么叫nlp模型:NLP 模型是指“自然语言处理”模型,主要用于让计算机理解和处理人类语言。它可以完成翻译、问答、文本生成、情感分析等任务,是像 ChatGPT 这样的对话系统背后的核心技术。通过大量语言数据训练,NLP 模型能模拟人类理解和使用语言的能力。现代的自然语言处理(NLP)模型如GPT-4、Gemini、Claude等,必须依赖大型数据中心才能训练和运行,因为它们需要处理海量的数据、使用成千上万颗NVIDIA GPU进行长时间的并行计算,同时在运行阶段也需持续调用强大算力应对用户请求。此外,这些模型参数庞大,对存储、传输和调度要求极高,而高密度的计算又必须依赖稳定的电力供应和冷却系统,只有具备这些基础设施的数据中心才能胜任。因此,没有大型数据中心,现代AI语言模型根本无法实际运作。
一个典型的大型 AI 数据中心通常需要 数万乃至十万颗 Nvidia GPU。以 Meta 和 xAI 为例,Meta 在 2024 年宣布将建设拥有约 350,000 颗 H100 GPU 的超大集群,而埃隆·马斯克的 xAI “Colossus” 超级计算机已配备约 150,000 颗 H100 并计划扩容至 1,000,000 颗 GPU reddit.com+4engineering.fb.com+4medium.com+4。每颗 GPU 功耗高达约 700?瓦,并在全年大约使用 3.7?MWh 电量 tomshardware.com;一个包含 8 万至 10 万颗 GPU 的数据中心,光 GPU 本身就会消耗数十到几百兆瓦功率,对电网构成巨大压力 semianalysis.comcoreweave.com。所以,建设这种规模的数据中心,首先必须考虑建造具备强大的供电能力的供电设备,没有足够电力,即使建起来也无法正常运行。
而且,这只是训练阶段的开端消耗。AI 普及后,每一次询问、每一次预测都在推理阶段不断耗电——一次查询就可能消耗电能而产生几克 CO?,用户越多,累加就是巨大排放。而且,数据中心的电力需求持续爆炸增长,例如每个机架现在要能提供 17?kW,甚至到 2027 年预计达到 30?kW,是两年前的近四倍。
那么,谁来供这些电?目前来看,美国正在积极布局。川普总统已宣布在宾州以及“铁锈州”的大城市推进数十亿美元 AI 和能源计划。一家公司在宾州的投资额为 6 亿美元,预计初期耗电 100?MW,最高可扩充至 300?MW,且配套能源工程正在规划中。
这背后的推动力很明显:要跑 AI,就得先有电!但问题是:一个小国家如台湾、或资源有限的地区,是否有能力承载大型数据中心?答案看起来并不乐观:
节点多且密度高的 GPU 服务器耗电巨大:据资料,一个 NVIDIA H100 的 GPU 消耗约700?W,每台带 8 颗 GPU 的服务器就要 5.6?kW,不算冷却及其它设备。
若一个中心安装 30,000 颗 GPU,整机耗电达到 200?MW 左右,每年运行 24/7,耗电量甚至可达上亿度电。单是电费和基础设施,绝对不是小地方能轻松承担的。
那有没有替代方案?现在很多观点都推崇核电与水电结合的模式,配合风能、太阳能等清洁能源。但核电虽然发电稳定碳排低,却建设周期长、投资大、社会接受度低。风能太阳能这取决于这个国家的地理自然环境有的国家并不适合建造风能有的国家也不适合使用太阳能举一个简单的例子比如英国他一年到头阳光灿烂的日子比较少所以太阳能的效率不会高否则就是在高山上去建琳那么成本就太大了。我想这是推荐更先进的人工智能发展会碰到的主要障碍,呃必须重点解决嗯哼
还有,从芯片设计本身优化也是方向之一,比如用低功耗、自研 AI 芯片(类似黄仁勋的 NVIDIA 系列)或者专用超低能耗推理芯片。市场上已经有厂商(如 Emerging AI 芯片)宣称能效比更高,但目前一台大型数据中心仍不可避免要吃电。
所以总体来看,AI 要继续发展:
得有充足电力,包括核电、水电、风电和太阳能等多种组合;
还需要芯片能源效率大升级,用更少电完成更多计算;
基础设施与政策配合也缺一不可,否则即使建起数据中心,没电也白搭。
💬 我的看法
如果一个国家或地区没有足够的电力供应能力,那么即使想建个“AI 竞赛”、“AI 数据中心”,也基本是美好愿景的空谈。所以现在川普急着在铁锈州铺大型数据中心,更在兴建能源工程,这是一步到位的谋划。
未来真正的竞争力,不在谁的模型更大,而在于谁有能力支撑 AI 的电力。也就是说,AI 的国家竞争力 是算力+芯片+能源+政策的综合体。没有电,就是还没起跑。
你觉得呢?个人看法欢迎批评指教。