Title
您当前的位置: 首页 > 百强企业动态 > 文章详细
计算机行业AI泡沫系列:热力学熵增定律视角看本轮“AI泡沫”演变
发布时间:2026-01-23

  (来源:未来智库)

  (报告出品方:中国银河证券)

  一、总论:热力学视角下的AI 资本市场

  (一)背景:从 AI 技术革命到资本热潮

  自 2022 年底 ChatGPT 横空出世以来,生成式人工智能(AIGC)的技术突破迅速掀起一场全球性的产业与资本巨浪,过去三年,AI 技术突破的宏大叙事与巨量资本投入相互作用,呈现出几段比较明显的产业与资本的阶段性特征。第一阶段:技术突破与产业共识的形成(2022 年底~2023 年上半年)。以ChatGPT为代表的大模型技术展现出的性能跃迁,迅速在产业界确立了“大模型是下一代技术底层基础设施”的全球共识,这一共识重构了全球科技产业的竞争逻辑,也为资本的大规模介入提供了明确的标的和方向,算力(芯片、服务器、智算中心)成为战略资源,大模型能力成为核心竞争力,而基于大模型构建的应用生态被视为未来的价值高地。

  第二阶段:资本大规模投入与产业快速扩张(2023 年上半年~2025 年,仍在持续)。技术共识在极短时间内转化为实质性的资本开支(Capex)竞赛。以微软、谷歌、Meta、亚马逊为代表的美国科技巨头,以及中国的头部互联网公司,纷纷宣布并执行了激进的AI 投资计划。其核心特征是由拥有强劲现金流的产业巨头主导,投资集中于物理基础设施(如数据中心、AI 芯片)和基础模型研发。北美主要云厂商的资本开支从 2023 年起持续超预期增长,市场预期其2026 年总支出可能达到数千亿美元量级,目的是为抢占未来 5-10 年的技术制高点和市场份额进行的战略性押注。资本市场对此给予了高度响应,美股“七巨头”的市值增长贡献了市场主要涨幅,其估值逻辑从传统的市盈率(PE)更多转向对未来算力规模、用户增长和生态控制力的贴现,A股与港股市场也呈现出围绕算力产业链的强烈结构性行情,投资逻辑从最初的 GPU 芯片(如英伟达)向光模块、先进封装、液冷、数据中心(AIDC)等全产业链蔓延。

  第三阶段:产业焦点从“训练”转向“推理”,市场关注的焦点从“Capex 投入强度”逐步转向“投入回报率”(ROI),AI 泡沫论开始浮现(2025 年上半年至今)。随着基础设施的快速建设,产业焦点正从模型的“训练”阶段转向“推理”阶段。Token 调用量取代单纯的模型参数或用户数量,成为衡量 AI 应用真实活跃度与商业潜力的核心指标。头部科技公司披露的Token消耗量呈现指数级增长,证实了应用端需求的真实存在。企业开始将 AI 能力深度集成至现有产品(如办公软件、搜索引擎、电商推荐),并探索全新的 Agent、文生视频等原生应用。巨头们的资本开支绝对值仍在攀升,为上游产业链提供了确定性需求,但市场关注的焦点开始从“Capex 投入强度”逐步转向“投入回报率”(ROI)。当下,资本市场需要更加理性地审视这些巨额投资能否转化为可持续的收入和利润增长,以及现金流结构是否健康,能否出现真正的“杀手级应用”并形成清晰的盈利模式(如订阅制、API 调用收费),这些都将成为产业基本面能否支撑当前高资本开支和估值的核心要素。伴随着资本市场热度不断攀升,关于 AI 资产是否存在“泡沫”的讨论日益激烈,与此同时,中美在本轮 AI 主导的科技竞争下,采取的不同的路径,美国路径(以OpenAI、谷歌为代表)追求不计成本的性能领先和 AGI 突破,而中国路径(如 Deepseek、阿里巴巴、腾讯、百度等)则受限于外部约束,更注重在给定算力下的效率优化和应用驱动,因此中美两国AI 产业链的泡沫化特征也将有所区别,这也给本轮 AI 泡沫的分析带来了复杂性和多维度的挑战,既要审视技术信仰的边际衰减、资本回报的兑现压力,还要关注地缘政治约束下不同发展路径的可持续性。

  (二)热力学熵增定律在 AI 资本市场的映射

  如前所述,我们看到当前 AI 资本市场呈现两个看似矛盾的特征:一方面呈现明显的“非理性繁荣”表现,估值高企、资本巨额涌入且过度集中、市场情绪火热,另一方面其背后又存在真实的技术突破与广泛的应用前景,也就是存在相当程度的“理性基础”,即:技术突破真实、需求确实存在、产业逻辑清晰。因此,对本轮 AI 泡沫分析的方法论需要能适配这种矛盾性和复杂性。当前主流的 AI 投资分析仍停留在牛顿力学范式,也就是将市场视为由独立个体组成的机械系统,试图通过线性因果关系进行预测,我们认为,这种范式在分析AI 这种复杂适应性系统时将面临三重失灵:首先,还原论失效。传统的分析模式通常将 AI 产业拆解为芯片、算法、应用等独立环节,分别估值后加总。但 AI 系统的价值恰在于各环节之间的非线性相互作用。英伟达的估值不仅来自芯片销售,更来自其 CUDA 生态对整个产业秩序的重塑能力,而生态溢价无法通过还原分析获得。其次,历史类比失效。将当前 AI 热潮与 2000 年互联网泡沫简单类比,忽略了两个系统的根本差异:互联网是连接的信息系统,遵循梅特卡夫定律(价值与节点平方成正比);AI 是智能的生产系统,遵循更复杂的智能密度定律(价值与智能体间的协同效率呈指数关系)。互联网是建立在消费端的新连接,而 AI 是深入生产端的核心流程改造,其资本、产业和组织结构更具深度和粘性,导致相变过程更长、更复杂。第三,均衡思维失效。传统金融理论建立在市场趋于均衡的假设上。但AI 产业正处在远离均衡的相变区,波动不是对均衡的偏离,而是系统探索新稳态的必要过程,如果简单通过用PE、PS等均衡指标评估出于相变中的公司,可能错过 AI 价值指数级增长的主升浪。

  我们引入热力学熵增定律,将 AI 资本市场视为一个被巨额资本持续注入能量的开放系统。根据热力学第二定律,一个开放系统若无法将输入的能量持续、高效地转化为有序的价值产出(负熵),其内部的无序度(熵)将不可避免地增加,最终可能导致系统从有序扩张相变为无序出清。通过分析系统的“能量输入”(资本流)、“信息熵”(市场主流共识)和“结构熵”(产业链有序度),我们发现,当前的 AI 资本市场是一个被巨额资本(能量)持续注入的系统,并且正在构建高度有序的 AI 基础设施和智能(负熵),如果这些资本(能量)无法以足够高的效率转化为可持续的商业价值(即技术提升和收入增长跟不上资本消耗的速度),系统的熵(无序度)就会累积。当熵值超过某个临界点,依赖外部融资维持的扩张循环将难以为继,系统可能从当前的“高能有序”状态,相变为“低能无序”的调整或出清状态。

  观察系统内部正在经历从低熵有序状态向高熵无序状态的转变程度和所处阶段,将可构建一个全新的“非理性繁荣”下的“理性泡沫”热力学熵增定律分析框架。区别于传统分析往往陷入“现在是泡沫吗?”和“泡沫何时破?”的争论,我们构建的热力学熵增定律的分析框架,超越了“泡沫”vs“非泡沫”的二元争论,从热力学视角来看,泡沫是科技产业革命在资本市场投射的必然现象,这其实并非核心问题,核心问题是系统正在形成怎样的新秩序,当下秩序是否稳定,是否具备“脆弱性”或“反脆弱性”。

  (三)对 AI 泡沫做熵增指数判断的两个本质问题

  从热力学熵增框架审视,当前对 AI 资本市场是否存在“泡沫”的争论,本质上可归结为两个必须回答的核心问题,分别对应产业链上游与下游的能量转化效率与有序价值输出能力,也是判断系统是否会从“高能有序”滑向“低能无序”的关键阈值。第一个问题:Scaling Law 是否继续有效,决定上游算力资本开支能否转化为更高智能、更高效的算力供给。 Scaling Law 作为大模型性能与算力投入的幂律关系,在过去三年是驱动上游芯片、数据中心等重资产投入的核心信仰。然而,从 2025 年开始,预训练阶段的性能提升边际递减已显现,业界开始将算力与智能的突破寄望于后训练(Post-Training)与推理阶段的强化学习、思维链等算法创新。这意味着,单纯依靠堆砌算力换取智能提升的路径正逼近物理与经济的双重极限。若ScalingLaw 在预训练之外的扩展(如 Mid-Training、Test-time Compute)仍能保持高ROI,则上游巨额的 Capex 可转化为持续升级的模型智能与算力效率,系统的负熵流充足,上游“高压区”只是成长中的阶段性现象;反之,若扩展路径的边际收益快速衰减,则会出现资本投入无法有效转化为智能提升的熵增,供给端将堆积大量低效算力,形成“算力通胀”与资源闲置,上游泡沫风险陡增。

  第二个问题:下游 AI 应用是否产生正向 ROI,决定算力供给能否在产业末端被有效消纳并形成商业闭环。熵增定律告诉我们,一个开放系统的存续依赖于持续将输入能量转化为有序产出。放到AI产业,就是下游应用必须将中游提供的算力与模型能力,转化为可量化的商业价值(营收、利润、现金流),否则系统只在做“无效循环”消耗。当前,尽管 AI 在企业级渗透率提升,但大量算力仍在中游环节空转。如果下游应用能通过 AI Agent、垂直行业解决方案等形态,实现AI-First的原生价值创造(如按效果分成、嵌入核心业务流程),并维持高毛利率、复购率与数据飞轮,则算力需求将具备内生增长韧性,系统负熵增强,形成良性循环;反之,如果下游持续停留在Demo级应用或仅靠 API 调用薄利变现,则在开源模型平权与价格战冲击下,ROI 难以为正,算力消纳能力不足,将导致中游库存与空置率上升,熵增突破临界点,诱发无序调整。因此,AI 泡沫的熵增判断本质上是对“上游 Scaling Law 有效性”与“下游ROI 可实现性”的双重检验。这两大问题分别对应产业链的供给端转化效率与需求端价值闭环能力,也是我们将在第二章从产业链上中下游熵值分布出发,剖析脆弱性、识别“负熵节点”的逻辑起点:只有上游能将资本高效转为智能供给、下游能将智能高效转为商业回报,整个AI 系统才能在高熵环境中维持有序扩张,否则任何环节的熵增失控都可能引发系统性调整。

  二、产业链熵值分布——基于热力学脆弱性分析

  基于上述热力学框架及熵增体系的构建,我们对 AI 产业链上、中、下游进行脆弱性分析,整体来看,资本能量(Capex)从资本市场系统外部持续注入,主要流向上游(芯片/硬件)和中游(云基础设施),并转化为下游 AI 应用。 1、上游(芯片/硬件)处于“高能高压”状态,资本密集但技术路径依赖性强,理论上熵增风险较高,但实际上呈现的是“理性泡沫”特征。全球 AI 产业链上游头部公司的整体资本密集度呈下降趋势,资本熵增值暂不明显,反而是技术路径依赖与生态锁定的“结构熵”开始浮现;2、中游(云/平台)是熵增传导与放大的“相变枢纽”,面临上游资本效率衰减向下传导与下游整体 ROI 不及预期向上传导的双重风险和压力; 3、下游(应用)则呈现“达尔文式进化”,在显性的高估值β风险下,蕴藏着通过敏捷架构和垂直数据沉淀构建反脆弱α价值的巨大潜力。

  (一)上游(芯片/硬件):高压区下的资本与技术双重熵增分析

  上游是资本能量注入的首要入口和高压区,其脆弱性主要源于极高的资本密度与技术路径的不确定性。我们通过分析资本开支/营收比率(%),观察资本密集度与资本回报效率的动态平衡,这是一个关键负熵指标。该比率下降,反映出在资本开支增速逐步回归理性的同时,营收端正实现更高效、更有序的增长,系统的“能量转化效率”正在优化,也就是资本投入(能量输入)的边际增速放缓,而商业产出(有序输出)的加速度提升,推动单位资本创造的营收持续增强,实质上是系统内部“负熵”强化、运营效能提升的积极信号,说明上游产业正从粗放的资本投入驱动,转向更可持续、更注重内在效率的价值创造阶段。

  1、整体资本密集度呈下降趋势

  AI 产业爆发增速后上游产业链营收增速逐渐趋于稳定。2022 年底OpenAI 推出ChatGPT后,人工智能产业经历了深刻变革,ChatGPT 基于 Transformer 架构和人类反馈强化学习技术,显著提升了自然语言处理能力,开启了生成式人工智能(AIGC)时代,成功推动了大模型向通用人工智能平台演进,为智能时代提供基础设施。人工智能产业链上游迎来快速爆发,英伟达系列旗舰产品+CUDA 生态领衔市场,营收迎来爆发式增长,由于其此前低基数效应,近期营收增速略有下滑,但仍维持 50%以上增长。根据英伟达 2026 财年三季报显示,实现营收570.06 亿美元,同比增长62.49%。

  AI 上游产业链公司资本开支在 2024 年增速大增后今年整体已在降速。我们选取AI 上游产业链具有代表性的五家公司:英伟达、Intel、台积电、AMD 以及博通,资本开支呈现出一定周期性变化,在 2023 年 ChatGPT 爆火背景下,2024 年整体资本开支大幅增速,并在今年增速有所回落。

  AI 产业链上游营收增速大幅增长,超越 Capex 增速,整体资本密集度呈下降趋势。其中上游厂商中台积电与 Intel 资本密集度较高,主要原因是对于设备与厂房的投入较高,而英伟达、AMD、博通等芯片设计厂商资本密集度较低,整体上游商业链资本密集度呈下降趋势。

  2、上游供需关系的非线性断裂风险暂不明显,但存在泡沫隐忧

  北美 CSP 云厂商资本开支加速增长,算力产业需求仍然旺盛。整体来看北美四大云厂商25年第一季度资本性支出总计 711.38 亿美元,同比增长 64.29%;25 年第二季度资本性支出为882.46亿美元,同比增长 70.94%;2025 年第三季度资本性支出 964.04 亿美元,同增长67.6%,整体来看北美四大云厂商资本性支出仍然维持增长态势,需求仍然强劲。

  英伟达库存维持高位水平,库存周转率小幅下滑。截至 25Q3(26 财年第三季度)英伟达库存为 197.84 亿美元,同比大幅增长 158.48%,库存周期为 89.1 天,小幅提升,库存周转率为409%,同比小幅降低,主要是由于 Blackwell Ultra 芯片的量产准备,英伟达存货当前创出历史新高。

  AMD 库存维持高位水平,库存周转率逐渐稳定。截至 25Q3(26 财年第三季度)AMD库存为73.13 亿美元,同比大幅增长 36.08%,库存周期为 139.4 天,小幅降低,库存周转率为261%,同比小幅提升,AMD 库存持续创出新高,但库存周转率逐渐保持稳定水平。

  泡沫隐现,北美大厂云业务增长率与上游芯片厂商库存增长率存在剪刀差,且剪刀差持续扩大。截至 25Q3 英伟达库存增长幅度为 158.48%,显著高于微软 Intelligent Cloud业务收入增速(28.25%)与 Google Cloud 增速(33.51%),北美云厂商云业务收入增速与上游芯片大厂库存增速出现较大剪刀差,且目前来看仍然有扩大趋势。

  3、技术路径依赖与生态锁定的“结构熵”开始浮现

  英伟达的估值不仅来自芯片带来的收入高增长,更来自其 CUDA 生态对整个产业秩序的塑造能力,这种生态溢价构成了强大的“有序结构”,但同时也意味着极高的转换成本和技术熵,未来一旦出现颠覆性架构(如 Extropic 基于概率熵测量的芯片),或谷歌TPU 路线大行其道,抑或我国的国产替代因地缘政治加速,现有生态的有序可能迅速瓦解,转化为巨大的无序,即熵增。从目前来看,技术路线的“结构熵”已开始浮现。芯片架构有 CPU、GPU、ASIC、FPGA 等,其中 DPU(Data Processing Unit,数据处理单元)、NPU(Neural Processing Unit,神经网络处理单元)以及 TPU(Tensor ProcessingUnit,张量处理单元)也属于 ASIC 芯片。

  通用型 GPU 具有先天劣势,在当前美国缺电背景下,GPU 比ASIC、TPU等消耗更多功耗,并且具有更高延迟。传统芯片公司设计 ASIC 芯片实现最高效率,但过往经验来看开发成本较高,谷歌自 2016 年以来长期积累了丰富的 TPU 设计经验,从 2016 年谷歌推出第一款TPUv1开始到现 2025 年谷歌推出第七代 TPU 芯片 Ironwood,经过漫长的积累,谷歌TPU已经可以在性能上与英伟达系列旗舰产品正面对抗,更凭借低功耗、低成本的优势冲击英伟达GPU一家独大的竞争格局。

  谷歌 TPU 单卡算力逐渐缩小代际差,更多架构高性能芯片逐渐进入市场视野。根据SemiAnalysis 的数据显示,谷歌 TPU v4 和 v5 的单卡算力(BF 16 浮点运算)远低于当时英伟达系列的旗舰产品,TUP v6 的单卡算力性能已经非常接近 H100/H200,但比H100 落后了两年发布,TPU v7 更加缩小了这一差距,谷歌 TPU v7 发布时间仅仅比 GB200 晚了几个季度,但峰值理论算力性能基本上接近 GB200,谷歌 TPU 与英伟达 GPU 之间的代际差正逐渐缩小,英伟达面临更多高性能其他架构芯片的市场冲击。谷歌 TPU v7 在成本效率上对英伟达构成碾压优势。根据 SemiAnalysis 的数据显示,谷歌TPUv7 服务器的 TCUH(Total Cost per Unit per Hour)为 2.28 美元,相对英伟达GB200服务器的1.28 美元低约 44%,在成本效率上相对英伟达 GPU 节约了将近一半。

  未来 AI 芯片的竞争格局面临诸多不确定性,技术护城河脆弱性逐渐暴露,一旦以谷歌TPU为代表的专用芯片或将快速渗透,AI 芯片或将迎来“双轨时代”。谷歌十年磨一剑凭借专用TPU芯片的超高能效比和成本优势,正在不断挑战英伟达系列旗舰产品的垄断地位,但英伟达凭借CUDA生态的统治地位和 GPU 的通用性仍然是其最大优势,两种不同技术路线之间的鸿沟正逐渐缩小,技术壁垒上的脆弱性开始显现,未来或将形成英伟达 GPU 与谷歌 TPU 的双寡头格局。

  (二)中游(云/平台):熵增传导与放大的“相变枢纽”

  1、平台竞争的脆弱平衡:大客户依赖与价格战风险

  我们引入一个指标,即“收入/资本支出比率”,来衡量 AI 云厂商的资本支出投入对营收的拉动作用,从而来评估 AI 云业务的增长前景。该比率的“收入”是基于过去12 个月的营收增量(主要由 AI 拉动),“资本支出”是基于滞后一个季度的过去 12 个月的资本支出(考虑到新数据中心开始运营存在 1 个季度的滞后)。通过对亚马逊、谷歌、微软的“收入/资本支出比率”进行计算对比,我们可以看到,头部 AI 云厂商的营收增速仍处于较高水平(20%-40%),但是AI 资本支出对营收的拉动从季度上看整体在减弱,意味着 AI 的货币化能力当下未及预期。

  中游算力租赁的脆弱性,关注价格走势与空置率

  全球数据中心市场在 AI 需求的强劲驱动下,呈现出空置率历史性走低、租赁价格持续上涨的繁荣景象。然而,作为连接上游基础设施与下游应用的关键环节,中游算力租赁业务的商业模式正暴露出日益显著的结构性脆弱性,尤其是面临上游供应链与下游需求的双重不确定性。在上游,算力租赁商严重依赖英伟达等芯片供应商,面临地缘政治导致的供应波动和成本压力。在下游,其需求完全依赖于 AI 产业的发展。AI 的价值兑现是一个漫长过程,短期内对全社会生产力的提升有限。若 AI 应用商业化受阻或云服务支出放缓,算力需求将骤然降温。这种需求的高度不确定性与重资产投入的刚性形成了巨大风险。从 H200 租赁价格走势来看,目前算力租赁价格仍维持在较高水平,说明推理需求旺盛。根据CBRE Research,2025Q1 全球数据中心平均价格同比上涨 3.3%,达到每月每千瓦217.30美元。关于空置率,2025Q1 全球加权平均数据中心空置率同比下降 2.1 个百分点,降至6.6%。巴黎的下降幅度最为显著,空置率从 16.1%降至 7.7%。但是各区域的空置率区别较大:1、北美数据中心的空置率仍然是整体最低,尽管美国四大数据中心的容量同比增长了43%,但北弗吉尼亚州仍是最紧张的市场,空置率为 0.76%。亚特兰大降至3.6%,菲尼克斯降至1.7%,而芝加哥小幅上升至 3.1%。 2、2025Q1 欧洲四大数据中心的整体空置率同比下降 3.2 个百分点,降至7.4%的历史低点,主要是受到新增规模的限制。 3、2025Q1 拉丁美洲各地的空置率大幅下降,其中圣保罗的同比降幅最为显著,从14.2%降至9.5%。圣保罗、圣地亚哥和克雷塔罗等主要市场的空置率接近历史低点。4、2025Q1 亚太地区的整体空置率仍保持在 14%的较高水平。由于需求略有疲软,香港的空置率相对较高,为 28%。新加坡的空置率最低,为 2%。需要注意的是,今年上半年的低空置率和高价格,很大程度上是由科技巨头的大规模预租行为所驱动,而非完全由终端 AI 应用产生的实时消耗所支撑,而这种基于预期的投资掩盖了真实需求的能见度,未来依然存在下游 AI 应用的商业化进程不及预期,导致空置率下降的可能性。

  (三)开源模型与客户自研可能带来对中游平台的冲击

  企业级大模型的竞争也非常激烈,“三足鼎立”格局初现。2025 年Anthropic 超越OpenAI,成为企业领域大模型市占率第一,基础模型格局发生了决定性转变。Anthropic 目前占到企业级LLM API 使用量的 40%,高于去年的 24%和 2023 年的 12%。OpenAI 损失了近一半的份额,从2023 年的 50%下降到 27%。Google 的份额也有显著增长,从 2023 年的7%增长到2025年的21%。这三家公司合计占企业级 LLM API 使用量的 88%,其余 12%分散在Meta 的Llama、Cohere、Mistral 以及众多小型供应商手中。开源模型(OSS)的迅猛发展,正在通过技术供给侧的效率平权冲击原有性能垄断的商业模式。市场的鲶鱼效应正在不断深化,根据 OpenRouter 和 a16z 联合发布的深度调查2025年12月最新发布报告《State-of-AI》对超过 100 万亿 Token 的真实世界交互数据分析,开源模型的市场份额演变揭示了深刻的趋势。截至 2025 年底,开源模型已占据全球 Token 使用总量的约三分之一,更具颠覆性的是其内部动态,以 DeepSeek、Qwen 为代表的中国开源模型,其市场份额从2024 年底的不足2%,在一年内飙升至占据所有开源模型使用量的近 30%,这一“鲶鱼效应”不仅体现在总量增长,更体现在对市场结构的冲击——它迫使整个行业的价格锚点发生位移。OpenAI 等闭源巨头被迫进行史无前例的大幅降价(如 o1 系列降价 80%)并发布自己的开源模型系列(GPT-OSS)以应对竞争,这直接证明了开源力量已从边缘挑战者变为定价规则的重塑者。

  首先,开源模型通过极致性价比,直接冲击了中游平台的定价权和利润空间。以DeepSeek为代表的开源模型,其开发成本仅为闭源模型的零头(如 DeepSeek-R1 成本600 万美元,对比OpenAIo1 约 5 亿美元),API 价格更是低至行业均值的 5%。这种数量级的成本优势,迫使闭源模型提供商(如 OpenAI)大幅降价(如 o3 模型降价 80%),直接挤压了中游模型API 服务的利润。其次,开源生态的繁荣和客户自研能力的增强,削弱了中游平台的生态控制力,并推动其价值定位发生根本性转变。开源战略催生了去中心化的开发者社区,使开发者和企业可以绕过大型平台,直接基于开源模型进行创新。同时,企业为追求更贴合自身业务、更低成本或避免供应商锁定,正转向更多定制构建 AI 应用。这使得中游平台的角色从“模型和算力的垄断性提供者”,被迫降级为“工具链与集成服务的赋能者”。其价值创造点,必须从提供通用资源,转向提供更高效的微调工具、部署方案和数据管理等差异化服务。再次,地缘政治和“主权 AI”需求,加速了基于国产开源模型和算力的替代进程,对国际和国内中游平台都构成了结构性挑战与机遇。中国企业出于数据安全和供应链自主的考虑,对国产开源模型和国产算力平台的需求日益迫切,一方面给国内平台(如阿里云、腾讯云)带来了服务国产生态的机遇,另一方面,全球性的平台可能由于路线的割裂而带来生态裂变的不确定性。

  (四)电力成本的不可控风险:能源价格波动对利润的直接侵蚀

  美国正在陷入缺电危机,电力荒逼迫全球算力节能降耗。据美国能源研究所(IER)估算,OpenAIOrion 模型进行一次训练所消耗的电量约达 110 亿 kWh,这一耗电量相当于约100 万美国家庭一整年的用电量。根据 EIA 报告显示到 2030 年,全球数据中心电力需求将达945 太瓦时(等于10亿千瓦时即 10 亿度电),占全球用电量近 3%,较 2024 年增幅超一倍。在美国,仅OpenAI一家计划到 2033 年部署的算力中心,新增负荷就超过美国当前全国最高用电负荷的四分之一。相比之下,美国电网却显得捉襟见肘:345kV 变电站交付周期长达 128 周,输变电工程师缺口达20万人,根本无力支撑算力中心的电力需求。

  美国老旧电力系统亟待升级,全球 PUE 水平有望进一步优化。2024 年,全球的平均PUE是1.56,表明全球数据中心大约有三分之二的电能都用在 GPU 计算上,剩下三分之一的电能消耗在冷却、供电、照明等系统,能耗结构仍有优化空间。美国电价在 GPT 加大训练投入后飙升,居民用电出现挤兑。美国很多老旧的电力系统较为落后,根据美国劳工统计局数据,2021 年到 2022 年期间在 OpenAI 大规模投入训练GPT的同时,电价飙升曾导致正常居民用电挤兑。结合对芯片性能的估算,SemiAnalysis 预计到 2030 年,AI 数据中心消耗的能源占全球总能源产量的 4.5%,整体处于可控范围。SemiAnalysis 通过分析北美地区1100 多家数据中心的情况来预测未来 AI 数据中心的电力需求。在未来几年内,数据中心的电力容量增长速度将会加快,其复合年增长率将从 12%-15%上升到 25%。全球数据中心对关键 IT 系统的电力需求也将大幅增加,从 2023 年的 49 吉瓦增加到 2026 年的 96 吉瓦,其中 AI 相关应用将消耗约40 吉瓦的电力。AI 时代对能源的挑战主要在两方面,一方面要求能源价格低且波动小,另一方面要求能源结构具有较低的碳强度。这非常适合大规模使用成本经济的可再生能源。然而,目前全球各区域的电力供应水平和价格差异巨大: 1、美国的工业电价当前依然属于全球低水平,平均仅为 0.087 美元/千瓦时。此外,美国的天然气资源也非常丰富。其问题是土地、许可等限制导致新数据中心交付缓慢以及并网排队时间长(如德克萨斯州达 11 年)。 2、中国的工业用电电价为 0.092 美元/千瓦时,这一水平属于较低的范围。但中国约61%的电力是由煤炭产生的,控制碳排放是一个难点。 3、欧洲由于政治和地缘因素,电力生产量一直在缓慢下降,2022 年欧洲的平均工业用电电价达到了 0.18-0.235 美元/千瓦时,因此在全球 AI 数据中心规模里欧洲所占的比例不足4%。

  我们以微软 AI 云服务为例,对于一个 H200 GPU,若电力成本翻倍(从约0.087增长到0.18美元/kWh,接近欧洲水平),会导致其每小时运营成本增长约 20%,在给定其他成本结构下,这大致对应 EBITDA 利润率下降约 4 个百分点,表明电力成本是影响云厂商盈利能力的关键敏感变量。

  下游应用:“达尔文式进化”下的显性风险与隐性价值

  当前 AI 产业链的核心矛盾,已从上游资本开支(Capex)的军备竞赛期,转向下游应用层商业价值兑现期。市场正以投资回报率(ROI)为标尺,对前期巨量资本投入进行残酷的“达尔文式”筛选。一方面,开源模型的崛起和成本曲线的陡峭下滑,正在瓦解传统闭源模型的定价权,暴露出应用层普遍的“轻资产”模式在资本高估值下的脆弱性(β风险)。另一方面,在激烈的竞争与快速的技术迭代中,真正能够深度嵌入业务流程、创造独特数据资产和领域知识壁垒的应用,正在沉淀出远超市场当前定价的韧性、多样性和反脆弱性(α价值)。我们认为,下游应用层的发展,本质是资本能量(负熵流)能否高效、可持续地转化为可度量的商业价值(有序输出)的过程。这一过程正经历三个结构性转变,其成败将直接决定整个AI资本市场是会走向“理性繁荣”还是“无序出清”。 2022 年 11 月 30 日,ChatGPT 发布以来,计算机行业估值 PE(TTM)进入震荡上升通道,当前 PE 值处于过去十年高点,显著高于 sd(+1)水位。当前行业整体估值较高,下游AI应用企业通常采用的“轻资产”模式,这种优势常常伴生一些“达尔文式进化”下群体性的显性风险(β风险);但从应用层面来看,随着技术的不断成熟和应用场景的持续拓展,隐性价值(α价值)的韧性、多样性和反脆弱性远高于市场当前的定价,并在市场价格校准后打开由“量变”带来的增量空间,进而逐步消化高估值。

  麦肯锡 2025 年 11 月调研显示,88%的受访组织已在至少一个业务职能中定期使用AI。行业采纳差异显著,IT、金融领跑:AI 采纳呈现明显的行业集中性。信息科技、专业与科技服务、教育服务、金融与保险是采用率最高的行业。这与其工作内容的知识密集度高、流程相对标准化、数据电子化程度好密切相关,符合 AI 自动化暴露度与采纳率正相关的规律。大规模价值创造尚在初期:尽管渗透率提升,但麦肯锡报告指出,近三分之二(约66%)的已采纳组织尚未开始在企业范围内规模化推广 AI,多数仍处于实验或试点阶段。仅有39%的受访者报告 AI 对息税前利润(EBIT)产生了影响,且其中多数贡献率低于5%,表明AI 从“使用”到“创造价值”之间仍存在巨大鸿沟。

  1、下游 AI Agent 当下落地困局:技术精度不足、Token 成本高、治理与协同等

  首先,当前主流大模型泛化能力依然不足。 IFBench 于 2025 年7 月在《GeneralizingVerifiable Instruction Following》论文中正式发布,IFBench 主要评测模型对新颖、复杂约束的泛化表现,该基准旨在揭示模型在未见指令下的精确执行水平,基于58 个可验证的单轮任务进行评估。根据 DataLearner 报告显示,IFBench 针对以下核心问题:一是模型对未见约束的泛化不足;二是缺乏可自动验证的评估标准;三是现有基准任务的分布偏差,导致高分模型在实际应用中表现不稳。据 Artificial Analysis 的 IFBench 测试,OpenAI 发布的大模型包括GPT-5、GPT-5.1和o3领跑,Kimi K2 Thinking 大模型仅得分 68%,DeepSeek V3.2 Exp 得分54%,Qwen3Max得分44%,底层国产大模型泛化能力不占优。

  其次,成本层面:虽然推理成本持续下降,短期内成本问题依然凸显。tokens 是 AI 智能涌现的基石。LLM 领域的核心范式是 Scaling Law,模型的性能(智能化程度)与其训练和推理过程中消耗的计算资源(通常以 FLOPs 衡量)存在可预测的幂律关系。而Token是计算资源消耗的最直接且可量化的载体。因此,模型实现其智能化必然伴随着tokens消耗的增加。 1)训练阶段:数据规模决定智能上限。模型的智能化是通过对海量、高质量token数据序列进行概率分布学习而来,复杂的推理、指令遵循和创造性等高阶能力,仅在模型参数量和tokens超越某个临界点后才会出现。 2)推理阶段:上下文长度决定任务复杂度。模型的“思考过程”体现在其对上下文窗口内tokens的处理上。每一步推理都会产生中间步骤(output tokens),整个过程消耗的tokens 数量与任务的复杂度和模型的思考深度直接相关。

  全球大模型推理成本持续下降。根据斯坦福大学人工智能研究所(HAI)2025 年4月发布的《斯坦福 2025 年人工智能指数报告》,在 MMLU 测试(评估语言模型性能的常用比较基准)中达到GPT-3.5 水平(64.8 分)的模型,其推理成本从 2022 年 11 月的每百万tokens20 美元降至2024年 10 月的 0.07 美元(Gemini-1.5-Flash-8B),约 1.5 年内下降超280 倍。在GPQA(比MMLU更具挑战性的比较基准)上得分超过 50%的模型的成本也呈现出类似的趋势,其推理成本从2024年 5 月的每百万 tokens 15 美元降至同年 12 月的 0.12 美元(Phi4)。EpochAI 估计,根据任务不同,大语言模型的推理成本正以每年 9 至 900 倍的速度下降。根据 Artificial Analysis 给出的 Artificial Analysis Intelligence Index(大模型智能化指数)标准测算主流大模型,在给定指数任务中,观测主流大模型的 output tokens 消耗量和总运行成本。若以此作为定量假设进行测算,可得出在给定任务中,不同大模型所需的单位运行成本。据我们测算,目前主流大模型的输出成本大部分集中在 2 美元/百万 tokens 至25 美元/百万tokens区间内,国产大模型具有成本优势。以 GPT-5.1 为例,在给定指数测算过程中,output tokens约为80.9百万 tokens,总运行成本约为 859.06 美元,因此估算 GPT-5.1 单位运行成本约为10.62美元/百万 tokens。而 Kimi K2 Thinking 大模型在同给定指数测算过程中,output tokens 约为138百万tokens,对应总运行成本约为 380.47 美元,因此估算 Kimi K2 Thinking 大模型单位运行成本约为 2.76 美元/百万 tokens。

  模型高智能化短期暂时还无法规避成本高问题。基于上述模型,进行其智能化指数与模型运行人工智能指数时产生成本的关系,散点基本分布在“高智能-高运行成本”或“低智能-低运行成本”象限,可见模型实现“高智能化”暂时无法与“低运行成本”同时兼得。

  最后,从需求端来看,AI Agent 商业化落地面临企业治理与协同等问题。尽管企业应用程序中内置的 Agent 功能开始逐渐普及,例如提供见解、更新记录、回答问题等简单任务,但还没有完全转化为日常化使用,当下,AI Agent 整体的采用率仍受限,AIAgent商业化落地面临一些挑战。部署情况方面,根据毕马威人工智能季度报告数据,2025 年第三季度AI Agent 部署量相较一季度几乎翻了两番,当前 42%的组织已部署了至少部分 Agent,相较一季度的部署比例11%大幅提升;但同时,AI Agent 试点情况相较 2025 年二季度下降了 2 个百分点,2025 年三季度试点比例下降至 55%。采用率方面,根据普华永道于 2025 年 5 月的调查显示,在 300 名高级管理人员中,完全采用AI Agent 的比例仅占总数的 17%;AI Agent 广泛采用的比例仅有35%。

  信治理框架缺位:Agent 还是 Copilot,责任主体悬而未决。在医疗、金融、法律等高风险场景中,AI Agent 的“自主执行”特征使传统软件责任边界失效。当 Agent 因模型幻觉给出错误诊断、错误交易信号或合同条款时,企业面临“三重责任真空”:1、模型提供方以“技术中立”免责;2、集成方以“仅调用 API”推脱;3、使用方因“未直接编写代码”而主张无过错。国内现行《数据安全法》《个人信息保护法》尚未对Agent 责任主体做出明示。为对冲风险,头部机构普遍采用“人工在环”折中模式——将 Agent 降格为Copilot,所有关键操作必须人工复核,结果是把效率提升幅度大幅压缩,Agent 的“自主价值”名存实亡。

  2、虽有困境,但趋势仍在加速,企业级 AI Agent 正迈向“L3 融合级”

  尽管 AI Agent 暂时面临落地困境,但其产业发展势头良好的趋势依然不变。我国企业AIAgent应用的整体成熟度正处于从“L2 普及级”向“L3 融合级”过渡的阶段,头部企业已进入“L3融合级”并探索“L4 驱动级”,但绝大多数企业仍处于“L1 萌芽级”和“L2 普及级”。

  伴随着 AI Agent 从“被动工具”迈向“自主决策体”,并且从个体走向协作,AI Agent的商业模式也将发生变革,AI Agent 应用的竞争点正从“提供工具”向“交付价值”转变。能真正提升下游企业利润的 AI Agent 应用将会胜出,从这个角度来说,对应垂直行业knowhow型卡位公司的投资机会相对提升,能融入智能体能力的 SAAS 企业有望迎来价值重估的机会。

  3、中国开源模型冲击带来成本-价值曲线重构,可能隐含群体性β风险

  成本-价值曲线的重构下,“高性能-低成本”组合普及,隐含群体性β风险。《State-of-AI》报告中的市场地图分析揭示了全新的竞争逻辑,在成本(每百万 Token 价格)与使用量的二维坐标系中,市场清晰地分化为两个阵营,即:以 OpenAI GPT 系列、Anthropic Claude系列为代表的闭源模型,凭借其顶尖的性能、可靠性和企业级支持,占据了“高成本、中高使用量”的象限,其商业模式依赖于为“任务关键型”应用创造不可替代的溢价价值。而与之形成鲜明对比的是,以DeepSeek 、Qwen Max 等为代表的开源模型,则密集分布在“低成本、极高使用量”的“效率巨人”(Efficient giants)区域,其单位成本可能低至闭源模型的十分之一甚至更低,却驱动了海量的 Token 消耗。这一现象表明市场并非单一同质的,而是由“价值敏感型”和“成本敏感型”两类需求共同构成。开源模型通过极致的性价比,正在快速将“成本敏感型”这一类规模巨大但此前未被充分满足的市场彻底激活和占领。

  以上形势对 AI 应用层货币化产生了直接冲击,这种“高性能-低成本”组合的普及,对下游应用企业的商业模式构成了根本性挑战,表面上看上游大模型平权带来下游成本下降,但实际上,下游 AI 应用企业采用“轻资产”模式,当其底层模型的调用成本因开源竞争而急剧下降时,应用层的价值捕获能力可能会受到双重挤压:一方面,它们难以将成本下降的全部红利转化为利润,因为竞争会迫使终端服务价格同步下降;另一方面,其技术壁垒部分被削弱,因为竞争对手可以基于相同的低成本技术底座,快速复制和迭代相似的服务,导致市场竞争加剧,产品同质化风险上升。这导致我们前面所述行业整体估值(PE/TTM)处于历史高位,但许多企业的营收增长和盈利路径尚不清晰,存在“达尔文式进化”下的群体性β风险。

  4、基于推理的 token 快速提升,需求增长引擎正从北门向亚洲特别是中国转移

  2025 年,通过推理模型进行处理的总 token 数量所占的比例急剧上升,在2025Q1在第一季度初期,这一比例还几乎可以忽略不计,而现在已经超过了 50%,这一变化反映了随着GPT-5、Claude 4.5、Gemini 3、Deepseek 等头部大模型功能日益强大,AI 应用已经开始呈现高速发展特征,用户更倾向于使用能够管理任务状态、遵循多步骤逻辑、并支持类似AI Agent 的工作流程的模型。其中,亚洲在全球 AI 推理 Token 消费中的份额,已从 2024 年底的约13%,增长至2025年底的约 31%,近一年亚洲的份额增长超过一倍,成为全球 AI 需求增长最强劲的区域,这不仅仅是因为中国是一个巨大的消费市场,更是因为中国已成为全球 AI 技术供给(开源模型)和需求创造(创新应用)的双重中心。

  在开源浪潮的全球性冲击下,中美 AI 产业基于其不同的市场环境、资本结构和用户基础,演化出截然不同的投资回报(ROI)实现路径。美国 AI 生态的基石仍是由 OpenAI、Anthropic、Google 等巨头构建的闭源模型体系为主导,。其 ROI 逻辑根植于“性能信仰”,即相信在 AGI(通用人工智能)的终极竞赛中,绝对的技术领先能够创造最高的商业壁垒。因此,其下游应用多聚焦于构建高价值、高复杂度的企业工作流解决方案。例如,将 Claude Sonnet 或 GPT-5 深度集成到金融分析、法律文档审查、复杂代码生成等场景中。用户为此支付的溢价,购买的是可靠性、安全性、极致的输出质量以及“任务零失败”的保障。《State-of-AI》的数据也支持了这一点,尽管价格高昂,Claude Sonnet、GPT-4/5等模型依然维持着可观的使用量,表明存在一个庞大的、对价格不敏感但对性能极度敏感的企业市场。其价值闭环在于:通过解决此前无法自动化的高价值问题,成为企业核心业务流程中“不可卸载”的组件,从而实现高客单价和长期的生态锁定。中国下游应用的 ROI 路径更侧重于“场景驱动”和“规模变现”,利用开源模型的低成本优势,快速进行产品迭代和场景验证,在角色扮演、轻量级编程辅助、社交娱乐、内容生成等领域实现了用户规模的指数级增长。OpenRouter 数据显示,中国团队开发的开源模型的崛起,不仅体现了它们在质量上的竞争力,也反映了它们快速迭代、频繁发布新模型的发展模式,这些模型的市场份额从 2024 年底时每周的使用比例仅为 1.2%,升至 2025 年在整一年的时间中平均每周使用量约为13.0%。其价值创造不在于单次调用获取高额利润,而在于通过极低的边际成本触达亿级用户,形成流量入口和平台效应,再通过增值服务、广告或生态系统进行变现。这条路径更敏捷,试错成本更低,但也更依赖于持续的用户增长和活跃度。

  5、Token 消耗趋势正从“内容生成”到“复杂任务解决”的价值密度跃迁

  自 2024 年底 OpenAI 发布 o1 推理模型以来,行业发生了根本性转向。到2025 年底,推理模型处理的 Token 已超过总量的 50%,且平均请求的输入 Token 长度增长了近4 倍,与推理范式崛起同步的是交互深度的急剧增加,平均每次请求的输入 Token 长度自2024 年初增长了近4倍,从约 1.5K 增长至超过 6K,意味着 AI 应用的核心价值正从简单的内容生成转向复杂的AI Agent演进,其价值密度显著提升。比如:从“帮我写一篇邮件”升级为“帮我分析这份财报并给出投资建议”、“帮我调试这段代码并优化性能”、“基于这些客户反馈制定一个产品迭代方案”。AI 应用的价值不再取决于生成了多少文字,而在于解决了多复杂的问题。

  (本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

上一篇:
京东在云南成立信息科技新公司
下一篇:
比亚迪:交付储能项目500+,遍布110+国家和地区
Title