09:32
如果说AI大模型是一片正在升温的海洋,那么今天,全球的开发者正在用一种最真实的方式投票:不是论文,不是发布会,而是调用量。谁被用得最多,谁就是这片汪洋大海里真正的“主航道”。
在这里,有一个很多人都没意识到的问题:大模型的调用量是怎么算出来的?每次你问AI一句话,它回你一段内容,一来一回,背后其实都在不断消耗一种看不见的单位。这种看不见的单位叫token,中文名叫词元。就在最近,一组数据让全世界都深感意外:中国大模型的词元消耗量,正在全面超越美国。更重要的是,这不是一次偶然的反超,而是连续好几个星期都在扩大差距。
那么问题来了,为什么越来越多的全球开发者开始转向中国的词元?在这场大模型混战中,中国到底做对了什么?面对算力需求的爆炸式增长,中国的下一张牌准备好了吗?今天,我们就用尽可能通俗易懂的语言,把这些问题深度拆解一下。
一、为什么中国词元开始反超美国?
在开始拆解之前,我们先要把一个概念讲清楚:什么是词元?词元的英文是token,在很长一段时间里都没有对应的中文翻译。直到2026年3月23日,在中国发展高层论坛2026年年会上,国家数据局局长在讲到token时,使用了“词元”一词,token才算是有了官方“盖章”的翻译。
那么,词元到底是什么呢?你可以把它想象成一块块“文字积木”。比如,你问AI一句话:上海今天的天气怎么样?在我们人类看来,这是一整句话,但在AI眼里,它会被拆解成很多小块,一块块来处理。在回答的时候,你也会发现,AI并不是把一整段话都提前想好,然后一下子完整地输出给你,它更像是搭积木一样,一块块往后接,一个字一个字往外蹦,慢慢地拼出一整段话。这些“积木”就叫词元。
所以,词元消耗越多,就说明越来越多的人真的开始在使用这个大模型了。现在发生的变化是,全球用户正在疯狂调用中国的大模型。有一个专门聚合全球AI大模型的平台,叫 OpenRouter。你可以把它理解成AI大模型的统一入口。开发者通过这个平台,可以随时切换、调用全球各种大模型,不用分头接入。也正因为如此,OpenRouter更像是一个大模型真实使用情况的排行榜。
来自OpenRouter的数据显示,2026年3月,按照词元消耗量来计算,全球排名前五的大模型里,前四名都来自中国,它们分别是:小米的MiMo、上海稀宇科技的MiniMax、上海阶跃星辰的Step、深度求索的DeepSeek,排名第五的,才是谷歌的Gemini。
这里面有一个点非常值得注意:在OpenRouter的500多万用户里,来自美国的开发者占比将近一半。相比之下,来自中国的用户占比不到10%。也就是说,这个榜单反映的,不是中国人在用中国的大模型,而是以欧美为主体的全球开发者都在主动选择中国的大模型。那么问题来了:他们为什么不用美国的大模型呢?答案很简单:两边差不多聪明,但中国的便宜太多。
在业内,有一个很直白的对比,调用中国大模型的价格,往往只有海外头部模型的十分之一甚至更低,而双方的能力差距一般也就在3个月之内。这就好比有两家造车厂,一家车确实性能好,但很贵;另一家车差不多好,但价格只有十分之一。对市场来说,这都算不上是一道选择题,哪家真香不言而喻。
那么问题来了,为什么到现在这个时候,中国大模型的性价比优势会被突然放大呢?
二、为什么中国大模型会突然爆发?
先说一个很多人可能还没意识到,但已经在现实中发生的变化。就在前两年,AI更多还是一种“高科技”的存在,看起来很高端,但和普通人终究还是有点距离。可到了现在,这种“高科技感”已经渐渐被“实用感”所替代。写文案、做PPT、修图片、翻译文章……这些原本需要人来完成的基础工作,现在都已经能用AI来完成了,虽然很多时候还是需要真人来兜底,但趋势已经很清楚了,那就是AI正在变得可用,而且是越来越好用。
这种转变意味着AI的角色变了,它正从前沿的科技项目,变成人们日常使用的工具,成为生活中必不可少的基础设施。一旦变成基础设施,AI的市场逻辑就会跟着改变。用户不仅会关注谁更先进,还会关注谁更有性价比。
这里还有一个关键问题。对普通用户来说,AI可能是免费的,或者是付费订阅的,但对于开发者而言,每次调用大模型,都要按词元精准计费。你用多少,就付多少。也就是说,开发者不是在用AI,他们是在采购算力。一旦进入到这个阶段,整个市场的行为就会变得极其理性:大家一定会选择效果差不多但价格低很多的大模型。
这个趋势,在2026年年初被进一步放大。OpenClaw的出现,彻底改变了AI消耗词元的体量。以前和AI之间一问一答,一轮下来可能也就花费几百上千个词元,可一旦安装了“龙虾”智能体后,它需要反复读取系统日志、高频调用工具、进行多轮自我纠错,单次任务消耗的词元,可能就是过去的几十倍甚至几百倍。这样一来,词元价格的重要性就被瞬间放大,这也是中国大模型开始反超的原因。
来自OpenRouter的数据显示,在词元的成本方面,中美大模型已经出现了明显的分化。以中国的MiniMax例,在输入端,每百万词元的成本大概在0.3美元。相同的体量,美国的Claude Opus 4.6成本约为5美元,两者相差十几倍。输出端的差距就更大了,一度拉开到了二十倍左右。我们再来看另一款国产大模型:阶跃星辰的Step,同样是完成一个月的智能体任务,它的Step Plan套餐只需要99元人民币,而海外主流模型的费用通常在120到150美元之间。
那么新的问题又来了,为什么中国的词元成本,会比美国的便宜那么多呢?
三、中国为什么能把词元成本压下来?
在2026年1月举行的达沃斯论坛上,英伟达首席执行官黄仁勋在一场对话中,把AI比作一个五层蛋糕,从上往下数,最上面的第一层是包括聊天机器人在内的各种应用,第二层是大模型,第三层是云端设施,第四层是芯片,最底下的第五层是能源。这个比喻说透了一件事:AI的底座,其实是电。
道理很简单,每一个词元的生成,都离不开芯片的计算,而这种计算是需要电力支撑的。如果只是生成一个词元,耗电量极低,几乎可以忽略不计。可一旦进入训练阶段,大模型就需要反复处理数千亿个词元,这就会让它变身名副其实的“吞电兽”。以GPT-3为例,它完成一次完整训练需要的电量,可以让100多户美国家庭用上整整一年。
从这个角度来看,构成AI大模型运行成本的基座,其实是电费。OpenAI首席执行官山姆·奥特曼就预测,未来,AI的成本会越来越接近能源的成本。也正因为如此,不少美国AI企业都患上了“电力不足恐惧症”,开始亲自下场“搞电”。2025年10月27日,谷歌和美国新纪元能源公司联合宣布,将在2029年重启一座位于艾奥瓦州的核电站,为谷歌的AI基础设施供电。2026年1月9日,Meta宣布和三家核电供应商达成协议,向其中一家采购电力,同时协助另外两家开发小型模块化反应堆。
这些巨头心里门清,尽管美国目前在芯片领域依然保有明显优势,但最先进的方案不一定就是市场会买单的方案。如果不解决电力成本问题,只要中国把芯片领域的差距缩小一步,美国在市场上就会被甩开一截。这一点,在大模型调用上已经有所体现。而要想把电力成本打下来,就必须要在发电增量上做文章,把整个盘子做大,而不是在现有的盘子里左右倒腾。
相比之下,中国在电力方面的优势极为突出。从量上来看,2025年中国全社会用电量首次超过10万亿千瓦时,是美国的两倍多,比欧盟、俄罗斯、印度、日本加起来都要多。更关键的是,从结构上来看,中国的中西部地区拥有大量风电、光伏、水电设施,发电成本更低。这样一来,中国就更有条件做一件事:让算力也流动起来,用上更便宜、更绿色的电。
2025年7月,上海电网首次完成跨省算力转移测试。测试中,位于浦东的一家智算中心接到虚拟电厂的调度指令,3分钟后,中心里正在运行的AI计算任务便被转移到了位于湖北十堰的数据中心。同时,智算中心的单机用电负荷下降了75%。这个测试的成功,不仅意味着在用电高峰时,可以把计算任务快速转移到电力负荷较低或是清洁能源丰富的地区。更重要的是,它意味着算力也可以被调度,优化算力成本也就有了更大的想象空间。
事实上,在算力和电力协同发展方面,中国已经启动了长期布局。在2026年全国两会上,政府工作报告首次将“算电协同”纳入新基建的部署,明确了算力和电力深度融合的顶层设计。
说到这里,我们大概能看清一件事。在全球AI竞争的海面上,风向已然发生改变。过去两年,大家比拼的是谁的模型更大、谁的参数更多,这就好像是在比谁的船更大、更快。现在,这场竞争正在转向另一个方向,大家比的,是谁的船性价比更高、跑得更久。电力,就是这片海面之下最深的暗流。谁能掌握这股暗流,谁就能决定未来的航向。
编辑: 周缇
美术编辑: 郭浩
摄像: 陈杰
责编: 张蕴昆