首页 AI科技文章正文

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

AI科技 2025年10月09日 21:49 0 admin

咱们每天跟AI聊天、用AI生成东西,看着挺流畅吧?

其实背后全靠数据中心里成千上万的服务器在转。

这数据中心可不是小生意,现在已经是万亿级的实体产业了。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

美国银行算过,2024年全球投在数据中心的钱已经超4000亿美元,2025年还要涨到5060亿,再过几年到2028年,这市场能超9000亿美元。

这增长速度真有点吓人,以前谁能想到装服务器的地方能这么值钱?

AI背后这场数据中心的基建竞赛到底是怎么回事。

以前数据中心多是企业自己建自己用,现在不一样了。

从2017年开始,亚马逊AWS、微软Azure这些云服务商,还有专门租场地的托管公司,他们的容量就超过企业自建的了。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

现在新盖的数据中心,基本都是这两类玩家在搞。

你想啊,云服务商要给全世界用户提供算力,托管公司要租给其他企业用,需求自然比单个企业大得多。

要说哪儿的数据中心最多,美洲占了一半还多。

美国东海岸的北弗吉尼亚州最夸张,全球超大规模数据中心里,近15%都在那儿;咱们中国北京也不差,能占7%左右。

我查过,北弗吉尼亚州光是阿灵顿县就聚了200多个大型数据中心,微软、亚马逊在那儿都有超100兆瓦容量的布局,这密度怕是全球找不出第二个地方了。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

为啥这么多人愿意投数据中心?因为赚钱稳啊。

就说建一个1兆瓦的批发托管数据中心,前期买地、接电要200万美元,盖房子、装机电散热设备这些“动力外壳”得1100万美元,总共1300万美元左右。

建好后,每兆瓦每年能收200到300万美元租金。

扣掉电费、人工、房产税这些成本,赚的钱(EBITDA)能有4到5成。

这种回报在基础设施里算很高的了,20年持有期内,内部收益率能到11%,比买房子稳多了,也难怪投资机构都愿意往里砸钱。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

不过数据中心光赚钱还不够,现在AI芯片逼着它必须升级,一场“密度革命”正在发生。

AI芯片太费电,数据中心开始“密度革命”

现在AI芯片越来越能打,但有个问题,太费电了。

英伟达从Volta架构到现在的Blackwell架构,单颗GPU功耗翻了4倍。

本来想芯片越先进越省电,后来发现根本不是这么回事,晶体管多了、跑得越快,电就用得越多,这物理规律真是没办法。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

芯片费电,服务器机架的功率就跟着涨。

为了让GPU之间传数据快,工程师就把好多GPU塞一个机架里,结果2021年的时候,机架平均才不到10千瓦,现在英伟达Hopper机架都35千瓦了,Blackwell直接120千瓦,听说2027年要出的RubinUltra平台,单机架能到600千瓦。

搞不清这趋势会不会一直下去,要是真到600千瓦,那一个机架的电费估计比不少小公司的月开销都大。

可现在大部分数据中心跟不上这节奏。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

UptimeInstitute去年调查过,全球只有5%的现有数据中心,机架密度能超30千瓦。

这意味着95%的数据中心连英伟达上一代Hopper芯片都撑不住,更别说Blackwell了。

所以想装新AI芯片,要么改旧数据中心,要么建新的。

而且不光英伟达,谷歌的TPU、微软的Maia100这些自研芯片,就算能效好,最新款也得用液冷散热。

很显然,以后数据中心不搞液冷是不行了。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

芯片费电带来的麻烦还不止这些,散热和供电都得跟着大改,这可不是小工程。

散热改液冷、供电换直流,数据中心大升级

以前数据中心都用风吹着降温,可风冷最多能搞定每机架60到70千瓦,面对120千瓦的AI机架,根本没用。

无奈之下,液冷就成了主流。

现在最常用的是“芯片级直接液冷”,就是在GPU、CPU上盖个带微通道的冷板,里面流冷却液(大多是水加乙二醇),直接把热量带走。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

这技术的核心是冷却液分配单元(CDU),2024年这市场才12亿美元,但供应商超30家。

不过数据中心怕出问题,都爱选老牌子,维谛(2023年收了CoolTera)、施耐德(2025年2月买了Motivair)、台达电子这些是第一梯队。

选老牌子也能理解,数据中心一停损失就大了,没人敢随便用新厂商的设备,维谛现在在CDU市场占了30%多的份额,就是靠多年的口碑。

除了散热,供电也得改。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

以前用低压交流,线路长还费电,机架功率超100千瓦后,得用特别粗的铜缆,又贵又占地方。

所以现在开始用高压直流,微软、Meta搞的400V直流方案已经在用,英伟达计划2027年上800V的,能支持百万瓦级的机架。

高压直流的好处很明显,功率不变的情况下,电压高了电流就小,铜缆能变细,成本能降不少。

施耐德算过,400V系统比208V交流能少用一半多的铜线。

而且供电改直流后,UPS不用再把直流转交流,能省点成本;服务器里的电源也能移出来,做成“电源边车”,给服务器腾出更多空间。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

英伟达已经说要和维谛、伊顿合作搞800V架构,看来这是行业大方向了。

数据中心这么折腾,最赚钱的其实是那些做设备的“卖铲人”。

散热方面,维谛是老大,冷水机组、冷却塔这些都做,2024年这市场有100亿美元左右,它占了25%多;江森自控、开利这些HVAC巨头也分一杯羹。

供电系统市场更大,2024年180亿美元,施耐德最厉害,光UPS新装市场就70亿美元,它占了35%多,伊顿、ABB、西门子也都是主力。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

备用电源里,康明斯的柴油发电机最牛,2024年这市场72亿美元,它占了40%多,北美数据中心一半的发电机都是它家的。

IT设备里,服务器市场2024年2800亿美元,AI服务器占了一半多;网络设备360亿美元,思科和Arista说了算。

盖数据中心也得靠专业公司,雅各布斯、福陆做设计,市场40亿美元;BalfourBeatty、Skanska搞施工,这市场有650到800亿美元,雅各布斯还参与过亚马逊AWS北弗吉尼亚数据中心的设计,合同金额超5亿美元。

AI引爆万亿数据中心竞赛,谁是背后的“卖铲人”?

不光是算法牛,更是数据中心这些基建在撑着。

而且听说未来几个月,全球建数据中心的钱会超过盖所有通用办公楼的钱。

如此看来,在AI这场淘金热里,那些做散热、供电设备的公司,才是真正闷声发大财的赢家。

毕竟AI再能打,也得靠这些“硬家伙”才能转起来不是?

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap