中国算力与能耗研究报告暨2030年发展预测
一、引言
(一)研究背景
毫无疑问,算力直接关系到国家竞争力的强弱。人工智能已成为衡量一个国家经济发展与科技实力的重要标志,而算力被广泛认为是支撑国家数字经济发展的关键基础设施,同时也是推动新质生产力发展的核心动力。算力的增长不仅仅是技术层面的提升,更直接关联到国家战略安全、经济发展质量与能源结构转型。
目前,各地纷纷加快智算中心项目建设,服务器机架数量、GPU出货规模、绿色能源利用方案等话题频繁出现在新闻和行业论坛中。与此同时,一个现实问题逐渐凸显:全国到底算力有多少,每年要消耗多少电力?
不同研究机构和媒体对算力规模与能耗的统计差异较大。这些差异既源自口径不一,也与统计方法、标准体系不够统一有关。因此,建立科学、透明、统一的算力规模与能耗统计逻辑,成为产业和政策层面亟需解决的问题。从国内统计实践来看,过去的数据中心主要以存储和通用计算为主,其能耗统计侧重机架数量和PUE等指标,但在智能算力兴起之后,单GPU或AI加速卡的功耗普遍高达数百瓦至上千瓦,整体能耗水平远高于传统机房。与此同时,液冷、直流供电、绿电直供等新型节能技术逐步应用,使得算力中心的能效表现出现明显分化。这种转变意味着,传统的数据中心统计方法已经不能完全适用于智算中心,需要重新设计符合AI时代特征的统计逻辑与标准。
中国算力发展一方面需要量的提升以支撑大模型、科学计算和产业数字化,另一方面也面临能耗约束与绿色转型的压力。如果缺乏统一标准,既不利于准确评估国家整体算力水平,也可能导致资源浪费和结构性矛盾。因此,从研究和实践两个层面来看,建立一套科学的算力规模与能耗统计框架具有紧迫性和战略意义。
(二)研究的意义
算力是数字经济时代的重要生产力。算力规模体现的是一个国家在人工智能和高性能计算领域的基础实力,而算力能耗则直接关系到能源安全与“双碳”战略目标。
1.支撑国家战略规划
在“东数西算”“人工智能新型基础设施建设”等国家战略推进过程中,算力规模和能耗水平是核心指标。如果缺乏统一的统计逻辑,各地申报项目时容易出现“虚高”或“低估”,不仅影响项目审批效率,也可能导致区域资源配置失衡。统一的标准能够帮助政府更科学地布局算力中心,避免重复投资和资源浪费。
2.服务能源安全与双碳目标
算力中心属于高耗能设施,未来电力需求规模庞大。通过统一的能耗统计,可以更准确地测算其在全社会用电中的占比,进而为电网调度、绿电消纳和能源结构优化提供依据。
3.促进产业投资决策
对投资者而言,算力规模和能耗水平直接关系到项目的资本支出和运营支出。缺乏可靠数据,容易造成投资误判。建立统一口径,可以让投资者更准确地评估项目收益率和回收周期,从而提升资本配置效率。
4.回应社会关切、引导舆论理性
公众往往对“算力中心是否是‘电老虎’”存在担忧。如果缺乏科学的数据支撑,容易引发误解甚至阻碍项目落地。通过建立公开透明的统计标准,可以让社会理解算力中心的能耗特点、节能潜力与对经济社会发展的支撑作用,从而形成理性共识。
综上,算力规模与能耗统计不仅是学术研究的问题,更是产业健康发展、政策科学制定和社会舆论引导的重要抓手。其目的在于为国家提供决策依据,为产业指明发展方向,为公众提供科学认知,最终实现算力发展与能源绿色转型的双重目标,为行业发展提供坚实的数据支撑与决策参考。
二、算力的定义与计算标准
本部分主要是明确统一“算力”的定义与统计口径,为后续数据采集、测算提供可靠基础。
(一)算力的定义
从广义来说,算力是一个计算系统在单位时间内可以完成多少计算任务。
从狭义来说,算力是集信息计算力、网络运载力、数据存储力于一体的新型生产力,主要通过算力基础设施向社会提供服务。(《算力基础设施高质量发展行动计划》,工信部等六部门,2023年10月)该定义明确指出:算力不仅仅是计算能力,还包括相关的网络与存储能力,体现为统一服务能力。
1.算力的类型
从计算方式的角度看算力分为稀疏算力和稠密算力。
稀疏算力和稠密算力用于描述计算资源的利用程度。在实际场景中,稀疏算力和稠密算力存在互补关系与转换关系。
稠密算力:指的是在计算过程中,数据点之间的关联度较高,需要处理大量连续的数据。通常用于需要密集型计算的任务,如图像处理、视频编码、大规模数值模拟等。
稀疏算力:指在计算过程中,数据点之间的关联度较低,数据分布稀疏。这种算力常用于处理稀疏矩阵或者稀疏数据集,如社交网络分析、推荐系统、基因序列分析等。
表1:稠密算力与稀疏算力特性对比
特性 | 稠密算力 | 稀疏算力 |
数据关联度 | 高 | 低 |
数据存储 | 连续存储 | 稀疏存储、使用特殊数据结构 |
计算模式 | 并行计算 | 稀疏优化算法,可能包含并行计算 |
应用场景 | 图像处理、科学计算 | 社交网络分析、推荐系统 |
能耗 | 相对较高 | 相对较低 |
算法优化 | 针对大规模数据处理优化 | 针对稀疏数据处理优化 |
硬件需求 | 高性能CPU/GPU、大容量内存 | 优化的存储解决方案、可能需要特定硬件支持 |
资料来源:盘古智库整理
从算力的应用场景看算力分为通用算力、智能算力和超级算力。
表2:算力应用场景种类
类型 | 说明 | 代表处理器 | 应用方向 |
通用算力 | 传统计算任务,如逻辑判断、流程控制、网页处理等 | CPU | OA系统、数据库、Web应用等 |
智能算力 | 支持AI算法、神经网络模型等高强度并行计算 | GPU、NPU、昇腾910等 | 图像识别、语音识别、LLM推理等 |
超级算力 | 大规模科学计算、精密模拟、科研仿真等高性能计算(HPC) | CPU+GPU/FPGA | 气候模拟、生命科学、超算工程等 |
资料来源:盘古智库整理
说明:当前“智算中心”主要指部署智能算力的高性能集群,区别于传统存储型数据中心。
2.算力的单位表示
在衡量算力(计算能力)时,常用单位是FLOPS(FloatingPointOperationsPerSecond),即每秒浮点运算次数。而算力大小常以G、T、P、E、Y开头的单位表示不同数量级的FLOPS。常见的计算次数表示有以下几种。
表3:算力的表示方式
单位名称 | 缩写 | 数值(次浮点运算/秒) | 中文对应 | 举例说明 |
GFLOPS | G | 10⁹=十亿次/秒 | 十亿级别算力 | 普通笔记本CPU(如Inteli7)约100–200GFLOPS |
TFLOPS | T | 10¹²=一万亿次/秒 | 万亿级别算力 | NVIDIAA100单张FP32≈19.5TFLOPS |
PFLOPS | P | 10¹⁵=千万亿次/秒 | 千万亿级别算力 | 大型超算或智算中心集群 |
EFLOPS | E | 10¹⁸=百亿亿次/秒 | 百亿亿级算力 | 国家级超算,如Frontier(美国)>1.1EFLOPS |
YFLOPS | Y | 10²⁴=一百万亿亿次/秒 | 百万亿亿级算力 | 理论单位,目前尚无系统达到此级别 |
资料来源:盘古智库整理
说明:例如:一张A100GPU卡(FP16)算力约为312TFLOPS;一个部署800张A100的算力中心,FP16总算力可达250PFLOPS。
(二)算力统计与表示的标准
本报告将“算力”限定为以GPU或专用AI芯片为核心,用于大模型训练与推理的计算能力。通用CPU运算、传统高性能计算(超算)与纯存储/传输功能的数据中心在统计口径上与智能算力区分开来。仅具备存储功能的传统IDC不纳入“智能算力中心”统计范围。
总体而言,为了使统计更具有客观性和准确性,我们的统计口径为以下三个方面,并给出最终的比较分析。
物理资源统计:统计具备GPU/AI芯片的标准机架数量;
算力指标统计:统一以FP16/FP8精度以下(PFLOPS)作为主力指标;
时间维度统计:区分“在用算力”与“规划算力”、“有效调度算力”与“峰值计算能力”。
表4:算力统计的内容
类型 | 是否纳入统计 | 标准依据(是否有AI计算能力) |
政务云中心(仅存储) | 不纳入 | 无GPU、无AI调度能力 |
互联网云存储机房 | 不纳入 | 仅用于对象存储,如CDN或OSS |
电信运营商通用IDC | 部分纳入 | 若配有AI计算能力的部分可计入 |
高性能计算中心(HPC) | 纳入 | 有并行计算能力,部分配AI芯片 |
具备GPU/AI芯片的中心 | 纳入重点统计 | 明确标配A100/H800/昇腾芯片等 |
“智算中心”明确命名工程 | 重点纳入 | 地方/企业对外披露为智算或AI算力中心 |
资料来源:盘古智库整理
就设施定义而言,课题组仅将具有独立物理空间、独立供电系统且达到一定规模门槛的实体化算力中心纳入国家级统计口径,以排除企业内部私域部署与大量边缘轻量节点的噪音性影响。
在人工智能领域,常用的算力精度为FP16。随着AI芯片架构不断演进,低精度计算(如FP8、INT8)逐渐成为行业新趋势。英伟达H100、B200等芯片已经普遍支持FP8计算,其能效比FP16明显提升。
我们通过研究对比英伟达A100、A800、H200等人工智能芯片设计参数,发现FP8与FP16的对应关系稳定在2倍。所以我们在后边统计与预测的过程中,FP8与FP16算力规模采用倍数关系进行对比计算。在测算实际算力总规模与能耗总量时仍采用官方提供的FP16为基准,后续在预测过程中以FP8为基准。
表5:算力计算标准
精度名称 | 缩写 | 位数(bit) | 精度(有效位数) | 常用场景 |
单精度 | FP32 | 32位 | 7位小数 | AI训练、科学计算、图形渲染 |
半精度 | FP16 | 16位 | 4位小数 | AI推理、内存受限任务 |
低精度 | FP8 | 8位 | 2位小数 | 超大模型推理、边缘设备 |
资料来源:盘古智库整理
(三)统一标准与政策决策
统一的量化标准使政府能够在多个维度上开展精准决策,避免资源错配。
第一,作为投资决策依据。通过已装机算力、在架利用率与边际收益评估,判定新增产能是否必要并优先支持关键区域或行业。
第二,优化资源配置。依据设备密度、装机电力与PUE数据,合理布局“东数西算”与能源—算力耦合项目,减少重复建设与电网瓶颈风险
第三,提升产业投资效率。以标准化数据作为财政补贴、绿电直供、土地与接入审批的条件,推动资金向高能效、绿色耦合的项目集聚。
第四,强化监管与风险预警。通过芯片出货量与电力消耗三角校验,辅助识别统计口径偏差、非法进口或“名不符实”的装机声明,从而维护能源安全与产业秩序。
第五,支撑“双碳”与绿色转型评估。将算力建设的能耗与绿电替代率纳入能源统计和碳排放核算,作为政策绩效评估的重要考核维度。
三、数据中心能耗构成分解
本章主要对数据中心能耗的主要构成进行了分解,涵盖算力集群(服务器、GPU/AI芯片、存储节点、管理节点)、网络设备、制冷系统、电力转换损耗以及辅助设施(照明、安全系统等)。其中,服务器和芯片集群占比最高,制冷系统能耗紧随其后,是影响整体能效水平的关键因素。并根据数据中心能耗与“双碳”目标的关系进行政策分析,并给出今后降低数据中心能耗的操作建议。
(一)数据中心能耗构成
数据中心的能耗构成可以分为两大类:IT设备能耗和非IT设备能耗(基础设施能耗)。这些能耗共同决定了数据中心的总能耗水平,也是衡量其能效(如PUE)和绿色水平的重要依据。
图一: 数据中心能耗分析图
具体来看:
表6:数据中心能耗构成
类别 | 子系统/设备 | 主要组成 | 功能简述 | 典型能耗占比(大致估算) |
一、计算系统 | 算力节点(GPU/CPU) | GPU服务器(如H800、A100)、AI芯片服务器 | 进行大模型训练/推理的核心单元 | 40–55% |
存储节点 | 分布式存储服务器、SSD阵列、RAID、冷存 | 存储数据模型、参数、训练样本等 | 10–15% | |
管理节点 | 控制器服务器、调度服务器 | 控制作业调度、资源分配、系统管理 | 1–3% | |
二、网络系统 | 交换网络 | TOR(顶层交换机)、核心交换机、InfiniBand | 节点间高速互联、集群通信 | 3–7% |
网络负载均衡设备 | 防火墙、负载均衡器(LB) | 数据通信管理与安全保障 | 1–2% | |
三、电力与冷却系统 | UPS与供配电系统 | UPS电源、PDUs、高低压柜 | 为IT设备提供持续稳定电力 | 10–15% |
空调与冷却系统 | 精密空调、风冷/水冷机组、冷却塔 | 控温控湿,防止设备过热 | 20–35% | |
四、辅助设施 | 安防与监控系统 | 摄像头、门禁、感应器 | 安全管理与状态监控 | 1–2% |
照明与办公系统 | 灯具、监控室、办公设备等 | 运行维护所需的基本照明与支持系统 | <1% |
资料来源:盘古智库整理
随着人工智能和大模型应用的兴起,数据中心的能耗结构正呈现出新的趋势。以GPU、AI 专用芯片为核心的智算中心中,这一比例进一步提高至55%–60%。其原因在于高性能GPU芯片的单卡功率普遍达到500–700W,机柜功率密度可突破20–30kW,远高于传统CPU型服务器机柜。这意味着,未来算力中心能耗的主要矛盾将集中在高密度计算负载本身,而非外围配套。
当前大多数数据中心冷却能耗占比仍在25%–35%左右,其中风冷方式受限于散热效率和能耗比,往往成为整体能效的瓶颈。随着液冷技术的逐步普及,特别是浸没式液冷与冷板液冷方案的应用,冷却系统能耗占比有望下降至20%左右。这一趋势不仅有助于提升整机房的电能使用效率(PUE),也使高密度算力集群得以持续扩展。
(二)服务器与机柜的标准
单个服务规格(U)从2U-10U不等,额定功率从0.5-11kw。额定功率≠实际功率:额定功率为最大负载下的设计值,通常实际运行在60–80%负载下。
表7:常见AI服务器规格与额定功率一览
品牌/型号 | 尺寸规格(U) | GPU搭载数量(型号) | 最大功耗(kW) | 典型用途 |
NVIDIADGXH100 | 10U | 8×H100SXM | 10.2 kW | 大模型训练,支持FP8/FP16 |
NVIDIADGXA100 | 6U | 8×A100SXM | 6.5–7.0 kW | 通用AI训练/推理 |
NVIDIAHGXA100(OEM) | 4U–6U | 4–8×A100SXM | 5.5–8.0 kW | 嵌入式设计,按厂商适配 |
浪潮NF5488A5 | 4U | 8×A100PCIe | 4.5–6.0 kW | 适用于中大型AI中心 |
浪潮NF5698 | 4U | 8×H800PCIe | 5.0–6.5 kW | 国产大模型/训练型智算中心 |
华为Atlas800-9000 | 4U | 8×昇腾910B | 4.8–6.2 kW | 高端国产AI芯片智算服务器 |
华为Atlas800-3000 | 2U | 4×昇腾910 | 3.0–4.0 kW | 中端国产AI服务器 |
鲲鹏通用计算服务器 | 1U/2U | 无GPU,ARMCPU | 0.5–0.8 kW | 基础政务云、国产通用服务器 |
DellPowerEdgeR750 | 2U | 2×A100/无GPU | 0.9–1.5 kW | 混合型数据中心、企业私有云 |
H3CUniServerG5 | 2U | 2×A100/H100 | 1.2–2.5 kW | 政企AI训练、图像/语音分析任务 |
资料来源:盘古智库整理
服务器机柜是承载数据中心或算力中心服务器设备的重要载体,其规格尺寸与额定功率直接影响数据中心的建设密度、冷却方式、电力配套和运行能效。
表8:服务器机柜的参数
属性 | 常见规格 | 说明 |
高度 | 42U(标准)/45U/48U | 1U=1.75英寸≈4.445cm,42U≈1.87米高 |
宽度 | 600mm/800mm | 标准为600mm;800mm提供更宽理线空间 |
深度 | 1000mm/1100mm/1200mm | 深度决定是否能放下GPU服务器等深机箱 |
承重能力 | 800–1500kg | 满载服务器后需考虑承重 |
冷却设计 | 冷/热通道隔离、后门热交换器、液冷背板 | 决定支持的功率密度与PUE水平 |
资料来源:盘古智库整理
表9:服务器机柜的类型
机柜类型 | 典型负载配置(设备类型) | 额定功率范围(kW/机柜) | 适用冷却方式 |
通用型机柜 | 10–20台1U/2U通用CPU服务器 | 3–8kW | 风冷 |
中密度机柜 | 6–8台GPU服务器(如A100PCIe) | 10–15kW | 增强风冷/预制水冷 |
高密度机柜 | 2–4台DGX/A800/H100SXM服务器 | 20–30kW | 液冷(冷板/浸没) |
极限密度机柜 | 浸没液冷全液态运行服务器 | 30–50kW,甚至更高 | 浸没液冷系统 |
网络/存储机柜 | 网络交换机、硬盘阵列 | 2–6kW | 风冷为主 |
资料来源:盘古智库整理
说明:高密度机柜(>15kW)已超出现有风冷能力上限,必须采用液冷或分区水冷设计。
机柜额定功率=所安装设备总功耗+电源损耗+电缆损耗(约5–10%冗余)
例如:GPU服务器功耗6 kW×3台=18 kW,加上电源冗余、网络设备≈总计20–22 kW,整体设计时应预留≥25 kW的供电与散热能力。
(三)绿色数据中心建设
在“双碳”目标背景下,算力中心的能耗问题不仅是产业运行层面的技术问题,更是国家能源安全与绿色转型的重要组成部分。数据中心的能源消耗主要集中于计算和制冷两大核心环节。因此,提升能效、降低PUE的关键在于推动IT设备计算能效升级和制冷技术架构革新。
针对能效提升,本报告提出以下政策引导方向:
1.鼓励绿色计算与液冷技术。风冷机柜功率受限于12–15kW,而液冷机柜可支持20–30kW以上高密度算力集群,能效提升潜力明显。政策应在资金支持与应用推广层面,引导企业加速液冷技术的研发与部署。
2.推动绿色能源直供。在算力中心选址和运行中,应推动水电、光伏、风电等绿电直供,减少过网环节,降低电力成本,同时确保能源结构清洁化。
3.优化能效监管指标。在现有PUE(电能使用效率)指标基础上,探索引入碳排放强度指标,使算力中心能耗与碳排放直接挂钩,推动运营商在能耗优化上持续改进。
在具体政策工具方面,可以考虑以下措施:
1.税收激励。对采用先进液冷技术、实现PUE值持续下降的数据中心,给予企业所得税减免或加速折旧优惠。
2.补贴政策。对建设高效能耗或绿色能源直供的算力中心,提供专项资金支持,降低前期投资压力。
3.绿色电价机制。对采购可再生能源的算力中心,在电价上给予优惠,形成绿色用能的经济激励。
4.分级管理与约束。对高能耗、低效能的传统数据中心,逐步收紧准入和运营政策,通过市场与政策的双重压力推动其转型升级。
四、算力与能耗统计方法
当前市场上关于中国算力规模与能耗的研究报告众多,不同研究机构给出的数据差异明显。多数机构都是采用给出算力总规模和能耗总量的数据,并没有说明这些数据类型和性质,很少公开其具体的统计方法、口径选择与修正逻辑。结果是,即便同样描述“中国算力规模”,不同机构之间的数据却相差数倍,造成行业和社会舆论上的模糊与困惑。目前,官方的统计口径是直接用标准机柜表示的,以此来衡量总体能耗。
基于这一现实,盘古智库提出有必要建立一套更为严格的统计标准,在明确“算力”的技术定义、数据中心的分类范围、精度口径、能效修正、负载因子等前提下,采用透明、多种方法交叉验证的计算逻辑。通过这一方式,可以得到更科学、更可比、更具政策参考价值的统计结果,从而避免“数字游戏”。
(一)算力规模统计方法
通过我们的深入调研和业内人士的沟通,算力规模统计有以下几种科学的计算方式。
1.按芯片性能与出货量测算
各类AI芯片(如英伟A100/H100、华为昇腾910B、寒武纪MLU等)的单卡算力(FP16/BF16)和出货数量。
计算公式:
总算力=∑(单卡算力×出货数量)
这种统计方法的优点是直观、便于横向比较。缺点是存在非官方进口和二手市场,数据不完整,需要广泛结合业内人士进行求证。
2.按服务器数量测算
统计GPU服务器数量,每台通常搭载4–8张GPU。
根据GPU型号性能折算总算力。
计算公式:
总算力=服务器数量×服务器算力
这种统计方法的优点是和厂商交付数据更贴近。缺点是需精确区分AI服务器与通用服务器。
3.按机柜数量测算
数据中心常以机柜数作为基础指标,每个高密度机柜可提供40–100PFlops(视搭载芯片而定)。
计算公式:
总算力=机柜数×单机柜平均算力
这种统计方法优点是和IDC行业统计口径一致。缺点也很明显,不同机柜利用率差异大,统计数据波动较大。
4.综合算力指数测算
结合芯片算力+存储容量+网络带宽+基础设施+环境等构建的加权指数。综合算力指数是一个通过构建多维度、多层次的指标体系,对一个国家或地区的算力基础设施规模、算力能力、应用水平、发展潜力及环境影响等进行全面、综合评估的量化指标,突破了单纯的算力规模计算。
基于上述多种方法的优缺点,盘古智库对其进行优化,进行多种方法交叉论证。提出算力总量与有效算力的计算逻辑,增加算力设备负载因子,能更加清楚的衡量算力的客观实际情况。
1.从出货量角度计算
总算力=(∑(单卡算力×官方出货数量)+∑(单卡算力×非官方出货数量)+存量估算因子)×有效负载因子
2.官方统计数据修正
总算力=官方统计数据×智能算力比值
(二)算力总能耗计算
根据算力总量计算方式,结合数据中心设备的有效负载与设计冗余可直接计算全部算力的能耗数据。我们采用实际值与理论值并行计算的方式,以区别与其他机构直接计算理论值的结果。
计算公式1:
实际能耗总量=标准机柜×有效负荷×运行时长×有效运行比×pue
说明:
有效负荷:根据数据中心的业务量不同,有效负荷在60-80%;
有效运行比:数据中心全年有效运行时长
计算公式2:
理论能耗总量=标准机柜×设计负荷×运行时长×满负荷运行×pue
从芯片设计功率计算总能耗
计算公式:
能耗总量=每P算力功耗×总算力× 芯片功率倍数×全年时长×有效负载率
说明:
每P算力功耗:综合各种人工智能芯片加权计算得出;
芯片功率倍数:算力中心设计总功率/芯片总功率,一般是2。
(三)统计标准完善的建议
本研究在明确智能算力、通用算力与存储算力等分类口径的基础上,进一步提出对未来政策层面建立统一统计标准的具体建议。
首先,应在国家层面制定统一的算力分类与统计框架。将算力分为智能算力、通用算力和存储算力,实践表明可以有效区分不同算力类型对能源消耗和产业价值的贡献。通过在政策文件中正式确立分类标准,可确保各地在统计与申报时口径一致,避免出现部分地区将传统存储或IDC容量混入智能算力总量的现象。并且排除企业内部私域部署与大量边缘轻量节点的噪音性影响
其次,应建立统一的统计指标体系。本报告提出以FP16作为智能算力的核心口径,并辅以机柜数量、额定功率、PUE值、年耗电量等参数作为辅助核验指标。未来政策应明确要求各类算力中心在数据上报时,至少同时提供按FP16或者FP8单位为EFLOPS折算的算力规模和实际能耗指标,以实现不同地区、不同类型算力的可比性。对于存储算力,则应以机柜数量和年耗电量为主,不应与智能算力混算。
第三,应在地方政府层面建立统一的统计流程。由于各地在算力基础设施建设中存在发展不均衡,地方政府在统计口径和执行方法上差异较大。为避免地区间因统计方式不同而造成数据偏差,国家应出台统一的申报表格、统计方法和核验流程,并建立中央与地方的数据对接机制。通过电力消耗、芯片出货量和机柜数量的交叉验证,确保地方统计结果的真实性与一致性。
最后,应研究建立国家级算力与能耗数据平台,定期发布统一的权威数据。该平台不仅能够汇总各地报送数据,还能结合行业运行情况,提供全国范围的算力规模与能耗对比,成为政策制定和产业调控的重要参考。只有在统计方法和口径上保持统一,才能真正实现全国范围内的数据可比性和政策的精准性。
五、中国算力中心规模与能耗分析
本部分的核心研究内容主要是统计算力中心的数量和算力的总规模,并以此计算能耗和未来的发展趋势。
(一)存储数据中心
1.存储数据中心规模
截至2025年,全国存储数据中心(以存储功能为主)数量约200-250个。存储专用机柜规模约166万(以2.5kW标准机柜计),占全国数据中心总机柜数的20%。(以国家数据公布的830万标准架为准,理论年耗电量2726亿度)
2.存储数据中心能耗
要计算存储数据中心服务器的总负载(电力负载)和年耗电量,需基于行业通用参数和合理假设(因具体配置存在差异,以下为估算值)。
(1)核心参数
机柜电力参数:采用2.5kW标准存储机柜(即单柜IT设备最大供电容量为2.5kW)。
实际负载率:存储服务器以数据读写为主,平均负载率(实际运行功率/额定功率)约为60%(行业常见范围50%-70%),即单柜实际功率≈2.5kW×60%=1.5kW。
时间参数:一年按365天计算,总时长=365×24=8760小时(统计中的全年8760个小时的运行时长是理想值,实际可能要减半)。
有效运行比例:根据时间调研情况发现,存储数据中心的使用率在60%左右。
(2)计算结果
表10:存储数据中心166万标准机柜能耗
标准柜数量(万) | 有效负荷 (千瓦) | 运行时长h | 有效运行比 | Pue | 全年能耗 (亿千瓦时) |
166 | 1.5 | 8760 | 60% | 1.5 | 193(实际值) |
166 | 2.5 | 8760 | 100% | 1.5 | 545(理论峰值) |
(3)说明
误差来源:
负载率受数据访问频率影响(冷数据存储负载率可能低于50%,热数据存储可能高于70%);
机柜功率密度存在差异(部分高密度存储机柜功率可达4kW,会拉高总负载)。
与总能耗的区别:上述数据仅为服务器(IT设备)自身耗电量,若包含制冷、供电等基础设施,需乘以PUE(能源使用效率,存储数据中心PUE约1.3-1.5),总能耗会更高。
(二)通用算力中心统计
1.通用算力中心规模
截至2025年,全国通用算力数据中心(以通用计算功能为主)数量约800-1000个。全国通用算力专用机柜规模约415万架(以2.5kW标准机柜计),占全国数据中心总机柜数的50%。
东部枢纽是实时计算主力区域,占比约60%,主要服务于实时计算需求,支持毫秒级响应,支撑能源调度实时计算,重点服务电商交易、金融风控等高并发场景。西部枢纽主要用于非实时计算与备份,占比约40%,重点承接非实时计算任务。
2.通用算力中心能耗
要计算通用算力数据中心的总负荷及全年耗电量,需基于之前梳理的核心数据(机柜数量、单机柜功率),结合行业通用的负载率进行推导。
(1)核心参数说明
机柜数量:全国通用算力专用机柜约415万架;
单机柜额定功率:以行业主流的“2.5KW标准机柜”为基准(即单柜设计最大负载为2.5KW);
负载率:数据中心实际运行中,服务器不会始终满负荷运行,通用算力场景(如云计算、工业互联网)的平均负载率通常为60%-80%(东部实时计算场景负载率偏高,西部离线计算偏低,取中间范围70%的有效负载);
全年运行时间:365天×24小时=8760小时。
(2)能耗计算
表11:通用算力全年实际与理论耗电量
标准柜数量(万) | 有效负荷 (千瓦) | 运行时长h | 有效运行比 | Pue | 全年能耗 (亿千瓦时) |
415 | 1.75 | 8760 | 60% | 1.5 | 572(实际值) |
415 | 2.5 | 8760 | 100% | 1.5 | 1363(理论峰值) |
(三)智能算力中心统计
1.智能算力中心规模
从算力总量端统计
当前市场上对智算中心算力规模的统计有官方的和非官方的,主要有以下几处来源的数据引用频率较高。
表12:市场上主要的智算中心规模数据统计
序号 | 数据来源 | 主要指标(原文陈述) |
1 | 2025中国算力大会 | 截至2025年6月底,我国在用算力中心机架总规模达1085万标准机架,智能算力规模达788EFLOPS(FP16) |
2 | 《全国数据资源调查报告(2024年)》(全国数据资源统计调查工作组) | 2024年,全国智能算力总规模达280EFLOPS(每秒百亿亿次浮点运算) |
3 | 信通院规划所联合发布《绿色算力发展研究报告(2025年)》 | 截至2024年底,我国算力总规模达到280EFLOPS,存力总规模约约1580EB(艾字节) |
4 | 浪潮信息《中国人工智能计算力发展评估报告》(2025) | 2024年,中国智能算力规模达725.3(EFLOPS),2025年,中国智能算力规模将达到1037.3EFLOPS,并在2028年达到2,781.9EFLOPS。(文中表述) |
资料来源:盘古智库整理
关于智算中心规模的统计数据却呈现出一种令人困惑的乱象。不同机构给出的数据大相径庭,从算力规模的量级到增长趋势的判断,均存在显著差异。究其根源,在于统计口径的严重不一致,并且没有说明统计的依据和侧重点。盘古智库从各种公开统计信息整理的数据显示,目前中国总算力大概有900EFLOPS,这其中包括通用算力和通用算力,以及其他被列为算力的资源。详细数据见下表:
表13:各地公开的算力规模统计
序号 | 省区 | 算力规模p | 截止时间 | 来源 |
1 | 内蒙古 | 126000 | 2025.5 | 新华社 |
2 | 河南省 | 94000 | 2025年底(规划) | 河南省发展和改革委员会 |
3 | 宁夏 | 74000 | 2025.6 | 宁夏日报 |
4 | 上海市 | 60000 | 2025.5 | 新华网 |
5 | 贵州省 | 56900 | 2025.3 | 贵州日报 |
6 | 甘肃省 | 55000 | 2024.12 | 甘肃省经济合作中心 |
7 | 河北省 | 50000 | 2025.5 | 河北省工信厅 |
8 | 广东省 | 38000 | 2024.12 | 广东省人民政府 |
9 | 江苏省 | 37900 | 2025.3 | 国家数据局/交汇点新闻 |
10 | 北京市 | 33000 | 2025.3 | 人民网 |
11 | 山西省 | 32000 | 2025.6 | 山西日报 |
12 | 新疆 | 30000 | 2025.5 | 盘古智库 |
13 | 安徽省 | 24000 | 2025.3 | 安徽新闻联播 |
14 | 浙江省 | 23660 | 2025.6 | 中国电子报 |
15 | 四川省 | 15000 | 2024.12 | 四川日报 |
16 | 湖北省 | 14343 | 2025.3 | 湖北省发改委 |
17 | 山东省 | 12000 | 2024.12 | 新华网 |
18 | 青海省 | 12000 | 2025.2 | 新华社 |
19 | 天津市 | 10000 | 2025.3 | 天津市工业和信息化局 |
20 | 黑龙江省 | 8000 | 2025.6 | 黑龙江日报 |
21 | 湖南省 | 7000 | 2024.11 | 湖南省工业和信息化厅 |
22 | 重庆市 | 6300 | 2025.5 | 重庆市大数据应用发展管理局 |
23 | 福建省 | 6000 | 2025.7 | 福建发改委 |
24 | 江西省 | 4000 | 2024.12 | 《江西省算力白皮书(2024年)》 |
25 | 广西 | 3280 | 2024.12 | 广西日报 |
26 | 云南省 | 3000 | 2025.3 | 云南日报 |
27 | 辽宁省 | 1600 | 2025.4 | 辽宁省人民政府新闻办公室 |
28 | 西藏 | 100 | 2026(规划) | 《“算力珠峰”高质量发展行动计划(2024-2026)》 |
29 | 吉林省 | 数据暂缺 | ||
30 | 海南省 | 数据暂缺 | ||
31 | 陕西省 | 数据暂缺 | ||
总计 | 837083 |
数据来源:盘古智库根据公开资料整理
经过我们的统计发现,900EFLOPS总算力中,仅有30%是智能算力,所以,我国目前的智能算力总规模在270EFLOPS附近。
从供货端统计
ChatGPT于2022年11月30日正式发布,瞬间火爆全球,同时也点燃中国大模型训练的激情,从2022底开始,中国才开始大面积的建设智能算力中心,所以我们统计近三年的AI芯片出货量是可行的。
根据IDC发布数据,2022年中国AI加速卡出货量约为109万张,其中英伟达市场份额约为85%,昇腾市场占有率10%,百度昆仑为2%,寒武纪和燧原科技均为1%。根据TechInsights的数据,2023年英伟达数据中心GPU出货量总计约376片,中国大约吸纳了120万片。根据IDC数据,2024年,中国加速芯片的市场规模增长迅速,超过270万张;其中国产人工智能芯片厂商的出货量已超过82万张。
表14:部分AI算力芯片单卡算力与功耗对比情况
序号 | 型号 | FP16算力 | 功耗 |
1 | A100(80GBSXM4) | ~312 TFLOPS(稀疏可到 624) | 400W |
2 | H100 (80GB SXM) | ~1,000 TFLOPS(稀疏可到 2,000) | 700W |
3 | H200 | 与 H100 接近(未全面披露) | ~700W |
4 | B200 | 预计 FP16 ~2,000 TFLOPS | 1000W+ |
5 | MI250X | ~383 TFLOPS(FP16/BF16) | 560W |
6 | MI300X | ~1,300 TFLOPS(FP16/BF16) | ~750W |
7 | 华为 昇腾910B | ~320 TFLOPS(FP16/BF16) | 350–400W |
8 | 寒武纪 MLU590 | ~300 TFLOPS(FP16/BF16) | 300–350W |
9 | 壁仞 BR100 | 官方宣称可达 1,000 TFLOPS FP16 | 550–600W |
10 | 沐曦 MXC | ~300–400 TFLOPS(FP16/BF16) | 300–400W |
11 | 燧原 Tianshu BI | ~200–300 TFLOPS FP16 | 300W+ |
数据来源:盘古智库根据公开资料整理
近三年中国市场消纳500万片算力卡,从上表可以看出,现在市面上AI芯片单卡FP16平均在500TFLOPS–600TFLOPS。所以,从出货端来看,中国算力存量应该在250EFLOPS-300EFLOPS之间,和行业公认的270EFLOPS-300EFLOPS基本吻合。
2.智能算力中心能耗
依据表14的芯片型号和功耗,结合市场上各种芯片的存量和新旧型号的功耗不同,我们从工程统计的角度对其进行加权平均计算,最后得出当前中国算力卡的功耗是每P算力耗电900w-1300w。
表15:全国智能算力全年总耗电量(以单p功率为基准)
芯片每P算力功耗w | 总算力p | 总功率/芯片功率 | 全年时长 | 有效负载率 | 总耗能(亿千瓦时) |
900 | 270000 | 2 | 8760 | 70% | 29.8 |
1300 | 270000 | 2 | 8760 | 70% | 43 |
说明:根据上表,我们可以清楚的得出一个1000P规模的智能算力中心年耗电量在1100-1600万度电,符合实际调研结果。
表16:智能算力全年实际与理论耗电量(按标准机柜算)
标准柜数量(万) | 有效负荷 (千瓦) | 运行时长h | 有效运行比 | Pue | 全年能耗 (亿千瓦时) |
249 | 1.75 | 8760 | 70% | 1.5 | 401(实际值) |
249 | 2.5 | 8760 | 100% | 1.5 | 818(理论峰值) |
六、结论说明
我们通过交叉验证和多维度比对发现,若按国家公布的830万个标准机柜测算,其理论全年总耗电量约为2726亿度电。然而,结合实地运行数据,实际年耗电量约为1166亿度电;若以智能算力每P功耗为口径进行测算,结果约为800亿度电/年。这一数值远低于理论推算值,也与市场上广泛流传的数据存在较大差异。同时,该结果与部分业内文章所强调的“算力中心能耗过高、亟需警惕”的观点并不一致。造成上述差异的原因主要有以下两点:
第一,数据中心理论值的能耗偏高,容易引发“数字担忧”。
按照理论计算,数据中心能耗约占全社会用电量的3%。在缺乏深入研究的情况下,部分观察者仅凭这一比例便担心未来随着智能算力的增长会造成电力短缺,从而形成对能耗问题的过度担忧。然而,这种结论并未充分考虑实际运行效率、能效提升以及电力结构优化等因素。
第二,电力成本是算力中心运营压力的重要来源,导致出现“成本焦虑”。
在算力中心的运营成本结构中,电费占据极高比重。由于当前人工智能应用场景尚不够丰富,算力中心整体收益水平有限,运营端往往难以平衡收支。因此,电力作为唯一显著的可变成本,成为业界关注的焦点。基于成本压力而产生的“算力中心耗能过大”的判断,本质上是一种成本焦虑。展望未来,随着人工智能芯片的更新迭代、数据中心PUE的持续下降,更重要的是随着应用场景的扩展与收益点的增加,电力成本的重要性将显著降低,不再是算力中心发展的主要制约因素。
第三,绿色能源的发展将进一步降低算力中心电力成本压力。随着光伏、风电、水电等清洁能源的占比不断提高,绿电直供政策的全面落地,算力中心可以大幅降低用电成本和价格波动风险。同时,绿色算力中心的建设也将使得单位算力的耗电量明显下降。换言之,算力中心未来不仅不会成为电力负担,反而可能通过与新能源的耦合,推动能源结构优化和绿色产业发展。因此,从长远看,电价和电量问题并非算力发展的核心矛盾,真正关键的是如何充分发挥算力的应用价值与产业带动作用。
七、十五五算力规模与能耗预测
中国在“十四五”期间奠定了坚实的算力基础设施。“十五五”规划期(2026-2030年),将是中国AI发展从追赶迈向引领的关键阶段。随着大模型与生成式AI的驱动、行业应用的深入拓展与政策支持,“十五五”将是中国人工智能产业高质量发展的阶段,算力规模会进一步扩大,同时将带动整个产业链产值的不断扩大,成为经济增长的一极。
(一)算力规模增长预测
根据我们建立的统计逻辑和标准,加之人工智能发展的确定性,预计在“十五五”期间中国算力年均增长速度将保持在35%以上。预计到2030年中国算力总规模将突破2500EFLOPS(FP16)。
随着低精度算力的普及,会有更多的大模型和人工智能应用场景支持FP8计算。DeepSeek最新发布的DeepSeekV3.1版本支持UE8M0就已经支持了FP8,这一技术提升了推理效率,并针对国产AI芯片(如寒武纪、沐曦、华为昇腾等)进行优化,显著降低显存占用和提高计算性能。若以FP8为统一口径测算,到2030年中国算力总规模有望突破5000EFLOPS。我们认为,以后在算力统计中应该用FP8标准表示算力的多少更为符合实际。
(二)算力能源消耗预测
依据上文我们建立的能耗统计框架,结合算力中心建设的规模与市场需求,我们认为“十五五”期间,算力中心能耗仍会保持一种较高的增长速度,预计到2030年算力中心全年电力消耗的理论值预计将达到6000亿度电,约占全社会用电总量的5%-6%。随着单位算力能效持续提升,得益于PUE降低和芯片能效改进,实际值可能会低于理论值。
(三)产业规模增长预测
算力不仅仅是技术指标,它更是产业链发展的核心引擎。到2030年,与人工智能算力相关直接产业规模约2万亿元,AI应用产业规模约5万亿元,带动上下游产业规模可超过20万亿元。这意味着,算力不仅是技术设施,更是产业升级与经济增长的新动能。
算力产业链涵盖芯片研发与制造、服务器与整机设备、数据中心建设与运营、冷却与能源配套、软件与调度系统等多个环节。我们认为,按照25%左右的年均复合增长率推算,到2030年该规模有望达到2万亿元人民币。这部分产业规模构成了算力发展的“硬支撑”,同时也会催生更广泛的应用市场。
算力基础设施的完善直接推动人工智能在各行各业的应用扩展。目前,金融、医疗、制造、交通、教育、文娱等领域已率先应用大模型和智能服务。我们认为,到2030年,随着算力的大幅提升和低精度计算普及,AI应用市场有望突破5万亿元,而带动的相关产业规模可能超过15–20万亿元,相当于国民经济中的重要增长极。
课题组成员
易 鹏 盘古智库理事长
周 济 盘古智库秘书长
牛站奎 盘古智库研究员