美国那边,突然砸了800亿美金,不是去搞芯片,不是去造飞机,而是去建核电站。你没看错,核电站。为什么?因为他们发现了一个比芯片断供更可怕的事:再这么玩下去,AI要把整个国家的电都给吃光了。 你可能会想,AI不就是电脑程序吗,能费多少电?可现实是,AI现在可是一个耗电的“大块头”,实打实的数字能吓你一跳,斯坦福大学的估算显示,训练一次GPT-3模型的能耗就超过1287兆瓦时,这相当于130个美国家庭一整年的用电量,而更先进的GPT-4单次训练能耗直接飙升到5000兆瓦时以上,差不多是一座中型城市几天的总用电量。 这还只是模型训练阶段,要是算上日常运行,麻烦更大——你和ChatGPT聊几句话的能耗,就抵得上几百次手机充电,全球上亿用户天天用,电费账单可不就得蹭蹭涨。 单个模型训练就这么费电,更别说遍地开花的AI数据中心了,美国现在有522个超大规模数据中心,占了全球总算力的55%,一个数据中心的耗电量能顶1000家沃尔玛门店,一次AI搜索的电费就是普通谷歌搜索的10倍。 谷歌、微软那些科技巨头的全球数据中心群,一年耗的电比整个芬兰都多,德州去年大停电那回,微软的AI数据中心直接宕机,一天就赔了超1亿美元,这才把他们彻底逼慌了,更要命的是需求还在疯涨,德勤报告说,到2035年美国AI数据中心的电力需求得比现在涨30倍以上,美国能源部更预警,2028年数据中心耗电量可能占到全国总用电量的12%。 可美国的电网偏不给力,老化得快散架了还没人好好修,各州电网各自为战,连个统一调度都没有,要给新数据中心接电,排队等个七年都不新鲜,去年全年才新增888英里高压输电线路,还没十年前的年均水平高,巨型涡轮机订单能积压好几年,想扩产能都没家伙事儿。 而火电碳排放高,政府要面子不敢多搞;风电光伏倒是清洁,可碰上刮风下雨就掉链子,根本撑不起AI这种24小时不停歇的电老虎。 思来想去,也就核电能扛事儿——一个反应堆能稳定运行60年,碳排放几乎为零,发电量还超大,简直是为AI量身定做的固定电源,美国能源部秘书赖特都直说了,赢不了核能竞赛,就赢不了AI竞赛,这时候再看那800亿美金,就懂不是冲动消费了,纯粹是被逼到墙角的无奈之举。 说实在的,美国这波操作透着股急功近利的味道,之前还笑话人家核电产业半死不活,现在恨不得把钱直接塞给西屋电气,可光建核电站不够,电网升级还得花1.1万亿美元,特朗普加的关税又让设备成本涨了一截,这些账算下来,800亿也就是个零头。 反观咱们早有安排,长三角的AI产业园直接配套建核电站,还搞“核电+光伏+储能”的组合拳,核电稳基本盘,光伏补缺口,储能抗波动,比美国单纯押注核电的思路稳妥多了。 说到底,美国砸800亿建核电,本质是给AI霸权续命的紧急措施,AI这头“电老虎”越养越大,电网却跟不上节奏,传统能源又掉链子,只能把核电当成救命稻草,但能源布局从来不是一锤子买卖,现在急吼吼砸钱容易,可电网升级的慢半拍、供应链的卡脖子,这些问题不解决,将来还是会掉链子。 这800亿更像张紧急续命符,能不能续上AI霸权的命,还得看后续能不能把电力系统的底子补好,不然再建多少核电站,也填不满AI挖的用电大坑。


贝吉塔
断电确实比断芯片要紧
不吐槽不舒服斯基
大概率是准备解决稀土问题了,稀土提炼需要大量电力!警惕吧!