“千万不要跟AI说‘谢谢’!”这一看似奇葩的建议,近日却因OpenAI CEO山姆·奥特曼的推文引发了广泛关注。他提到,对AI说“请”和“谢谢”或许让公司花掉了“数千万美元”电费,这意味着AI因人类的礼貌消耗了大量电力资源,变得更不环保。那么,AI的碳排放问题究竟有多严重?跟我们日常和AI的互动又有什么关联呢?

AI碳排放:难以捉摸的数字
AI作为助力环保研究和事业的有力工具,其研发和运营却相当耗能,而我们却难以确切知晓AI会造成多少碳排放。最主要的问题在于信息不透明,提供AI服务的大公司往往不会公布详细的能耗数据,研究者只能通过间接估算进行分析,比如通过英伟达服务器的需求量来推断AI能耗规模。
这些估算存在诸多假设,结果可靠程度有限,不同来源的估算结论差异巨大。一项估算认为,每使用一次ChatGPT平均会消耗2.9瓦时的电力,而另一项估算则认为每次查询平均仅需要0.3瓦时电力,二者相差近10倍。
研究者还有另一种获取数据的方法,即亲自下载并运行AI模型,执行标准化任务后测量电能消耗,结合当地电网中火力发电的占比计算碳排放。但这种方法只适用于开源模型,无法揭示AI环境影响的全貌。德国科学家对14个开源大语言模型进行分析后发现,不同模型回答相同问题时,能耗与碳排放差异极大,最大与最小数据相差50倍以上。而且,扩大参数规模、采用逐步推理虽能提升AI表现,却也增加了运算量和碳排放。例如,Deepseek R1 70B模型回答60万个问题所产生的碳排放,相当于乘飞机在伦敦与纽约之间往返一次。
AI能耗:局部影响不容小觑
单次使用AI的碳排放不算大,但考虑到热门AI工具上亿规模的访问量,相关碳排放总数相当可观。此外,AI模型的训练、硬件生产、服务器冷却等环节还有额外的环境成本,不过由于数据不足,这些成本总和难以确定。
AI模型的计算工作通常在大型数据中心完成。随着AI的迅速扩张,近几年数据中心用电需求快速增长,不过在全球能源消耗和碳排放中的占比还比较小。2024年,数据中心用电总量约为415太瓦时,占到全球用电总量的1.5%,供应这些电力产生的二氧化碳排放约为1.8亿吨,约占燃烧排放总量的0.5%。预计到2030年,数据中心用电量可能翻一番,达到约945太瓦时,但在全球电力消耗总量中仍只占约3%。
然而,数据中心有“扎堆”特性,局部地区受到的影响可能非常显著。美国弗吉尼亚州有340个数据中心,用电量占到该州电力消耗总量的四分之一以上,且数据中心建设仍在快速推进,电力不足迹象开始显现,AI带来的电力需求缺口可能要靠新建大型燃气发电厂解决,进而增加碳排放。
为AI减碳:不止于不说“谢谢”
在讨论减少AI碳排放时,有人提议从不对AI说“谢谢”做起,这确实有一定道理。因为大语言模型处理文字时,词元数量决定工作量、能耗和碳排放,减少“谢谢”这样的客套话,能让词元量减少,降低AI能耗。
但实际上,对碳排放影响更大的可能是AI的推理模式。启用逐步推理的大语言模型,碳排放是其他模型的4 – 6倍,因为展现思考过程时会生成额外文字,增加词元处理量。精简提问、谨慎选择AI模型对减少碳排放有帮助,但解决AI环境危机不能只靠约束使用者,提升AI效率、更多使用清洁能源发电、合理布局数据中心才是根本途径,这需要企业与政府的共同努力。