首页 今日新闻文章正文

AI和人脑同样写作耗能竟相差99%?背后藏何猫腻

今日新闻 2025年10月01日 04:13 1 admin

你可能没想过,当你打 开ChatGPT,输入一句“今天天气怎么样”,背后其实有一整套庞大的计算系统在高速运转。

虽然你看到的是几秒钟就能生成的回复,但这背后是一场“电力风暴”。

AI和人脑同样写作耗能竟相差99%?背后藏何猫腻

如今,人工智能不再是少数人的专属工具,像ChatGPT这样的聊天机器人已经成为全球数亿人的日常助手。

但它们可不是“无本运行”的魔法产物,而是实打实的“耗电大户”。

AI比人脑省电多了

人脑其实挺“小气”的,它是人体里耗能最高的器官,占了日常能量消耗的20%,但功率也就16瓦左右,就算到了关键时刻,最多也就能提到20瓦。

​这是5.4亿年进化定下的上限,跟台灯调到最亮差不多,就拿写东西来说,大作家马克・吐温年轻时60天写20万词,平均每天3000多词,就算到了69岁,一次坐四五个小时也能写1400词。​

AI和人脑同样写作耗能竟相差99%?背后藏何猫腻

职业生涯平均每小时写300词,按这速度,他写300词要1小时,20瓦的大脑得消耗20瓦时的电,这还没算其他器官和日常消耗。​

​可AI就不一样了,上个月谷歌报告说,他们的Gemini处理一条请求只要0.24瓦时,差不多是人类大脑的1%。​

​有人可能会问,那AI画画呢?之前还有媒体说别对AI说“谢谢”浪费能源,怎么现在又说人类更耗能了?​

​其实,对AI说“谢谢”和让它写篇创意故事,能耗能差9倍,任务越复杂能耗越大。​

AI画画用的扩散模型,能耗跟提示词长度没关系,主要看图片分辨率和扩散步数,步数越多质量越高也越耗能。​

AI和人脑同样写作耗能竟相差99%?背后藏何猫腻

但用20亿参数的StableDiffusion3Medium生成一张1024*1024分辨率的图,大概也就0.3瓦时,就算步数到50,也才0.6瓦时,跟写东西的能耗数量级差不多。​

​谷歌报告里的0.24瓦时可是把账算得很细了,包括AI加速器能耗、CPU和DRAM能耗、待机消耗,还有数据中心的冷却系统、不间断电源这些的能耗。​

​ChatGPT那边处理一条请求是0.34瓦时,两家数据差不多,看来在能源价格上涨的当下,没人会在这事上撒谎,这么看,单次任务里,人脑还真是又贵又慢的“奢侈品”。

AI能耗也不低

不过,前面算的只是AI回答问题的能耗,还没算它学习知识的训练成本。​

​虽然训练是一次性的,多问一个问题不用重新训练,但AI模型更新快,寿命可能不超过两年,把训练成本平摊到1-2年的请求量上才公平。​

​谷歌没说训练Gemini的能耗,但可以用OpenAI训练GPT-4的数据估算。

​训练GPT-4用了25000块NvidiaA100GPU,连续跑14周,用的是8卡服务器,整台服务器最大理论功耗约6500瓦,光服务器能耗就有48750000千瓦时。​

AI和人脑同样写作耗能竟相差99%?背后藏何猫腻

数据中心还有额外开销,用PUE(电源使用效率)衡量,微软的AzureWest超算中心PUE是1.12,所以训练一次GPT-4总能耗是5460万度电,这能让十万个普通三口之家用2个月。

但GPT-4每天能收到10亿条请求,一年就是3650亿次,把训练成本平摊到一年,每次请求才0.15瓦时,加上之前的推理成本,每次请求能耗也就0.5瓦时左右。​

​差不多能让30寸LED显示器亮1分钟,或者用1000瓦微波炉叮2秒饭盒,单看这个数好像不多,可真要是大量使用,情况就不一样了。

AI能耗的“杰文斯悖论”

那么就不得不提19世纪英国经济学家威廉・斯坦利・杰文斯发现的“杰文斯悖论”:技术进步提高了资源利用效率,反而会让该资源总消耗量增加。​

​瓦特改良蒸汽机后,蒸汽机更高效经济,被用到更多领域,英国煤炭总消耗量反而飙升,现在AI领域也在重演这一幕。​

AI和人脑同样写作耗能竟相差99%?背后藏何猫腻

​以前大家用大脑、计算器、搜索引擎干活,现在连回邮件、想朋友圈文案都懒得动脑,让AI写小说这种以前没有的需求,也因为AI廉价而出现了。​

​更别说,现在人们对AI的要求越来越多,“再来一版”是常事,还有人沉迷和AI聊天,企业对AI的需求也不少。​

​AI美颜、AI长焦相机、AI生成标题,连搜索引擎都加了AI总结,毕竟不加AI功能的产品,都不好跟投资方交代。​

​国际能源机构报告显示,2024年全球数据中心耗电量415太瓦时,预计2026年超1000太瓦时。​

​2024年有15%的数据中心用了AI加速器架构,AI产业能耗约62太瓦时,保守估计2030年能到200太瓦时。​

​可要是按ChatGPT每天10亿条请求、每条0.34瓦时算,一年也就0.1太瓦时,几个主流聊天AI加起来大概1太瓦时。​

​全球最大的283个大模型训练能耗加起来也才1太瓦时,加起来只有2太瓦时,连62太瓦时的零头都不到。​

AI和人脑同样写作耗能竟相差99%?背后藏何猫腻

​这说明日常用的AI模型,只是AI产业能耗冰山上的一角,更多能耗可能用在训练新一代AI模型、特定模型,还有实验性模型上。​

​谷歌2024年能耗比上一年增加20%,从25太瓦时涨到32太瓦时,谷歌、微软、Meta还在增建数据中心、购买电厂,显然他们都看到了AI能源需求的趋势。​

​总不能因为耗能就不用AI回到过去,“杰文斯悖论”提醒我们,光节流没用,得开源,科技巨头们投资可再生能源、自建电厂,不是做慈善,是为未来做准备。​

​咱们普通人能做的,就是享受AI便利的同时保持清醒,要求更透明的AI能耗数据,毕竟天下没有免费的午餐,也没有免费的答案。

结语

AI和人脑的能耗比拼,从来不是简单的“谁更省”。​

​单次任务里,AI确实比人脑省电得多,但把训练成本、海量使用的总量算进来,就会发现AI能耗的“冰山”远比表面看到的大。​

AI和人脑同样写作耗能竟相差99%?背后藏何猫腻

既不用因噎废食放弃AI的便利,也不能对能耗问题视而不见,科技巨头忙着建电厂、投可再生能源,普通人也能多留个心眼。​

​少让AI做没必要的“返工”,关注下产品的能耗数据,毕竟,智能时代的便利,不该用未来的能源透支来换,透明、可持续的AI发展,才是真的长久之道。​

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap