2025年中国算力中心行业白皮书算力中心供给分析 IV. 算力中心供需研判及未来展望 V. 附录 报告研究背景与主要研究结论 4 报告研究背景 • 纵观算力中心发展历程,移动互联网时代与云计算时代的技术革命催生了集约化、超大规模化的数据中心需求,由此孕育出了算力中心定制批发的业 务模式,并且该业务模式在2015-2020年间实现了快速增长。然而,伴随着移动互联网用户红利见顶、新基建边际效应递减及后疫情时代经济周期波动, 从算力中心的定制批发业务发展现状来看,需求端和供给端均展现出积极的发展态势。 ➢ 需求端,随着 AI 大模型的迅猛发展,市场对算力资源的需求呈现出快速增长。这一增长主要源于互联网大厂、云厂商、短视频厂商等行业头部企业 对高性能、大规模算力资源的投入持续增长,这一趋势推动了算力中心定制批发业务的高速发展。 ➢ 供给端,受益于新一轮技术升级,算力中心市场迎来更多整合契机。头部企业凭借在技术、资金、资源等方面的领先优势,能够更迅速地适应市场 云服务商 注:1.算力中心即数据中心,数据中心自2020年开始逐步向算力中心演变。 UPS电源 柴油发动机 … … 算力中心作为算力资源的关键载体,通过集成高性能计算、大规模存储、高速网络等基础设施,提供提供大规模、 高效率、低成本的算力服务。确保算力资源的集中部署、高效运行。 8 算力中心的定义与概览 中央监控 电源配电柜 消防减压系统 机柜及其附件 气体灭火系统 UPS不间断电10 积分 | 55 页 | 7.12 MB | 1 月前3
智算无界:AIDC的超越和重构-上海贝尔创建AI模型。它包括数据集合,模型选择,模型训练, 模型评估,模型部署和模型监控,涉及密集使用GPU。模型开发完成后启动推理业务,为最终用户提供业务 支持或与模型交互。因此大模型的训练基于更大规模的GPU并行计算,单服务器内部署GPU数量提升至4颗、 8颗甚至更多,并通过纵向扩展的方式实现更多GPU互联形成超节点。当前英伟达超节点Scale Up互联可达 576颗GPU。 趋势洞察 03 满足承载不同RDMA协议的技术要求,二是满 足海量数据传输需求的高带宽、大象流负载均衡、精细化流控等技术要求。借助RDMA技术,通过分布式智 算中心网络实现区域内多智算中心协同计算,可以满足更大规模的算力需求。 总而言之,算力的需求正在快速增长。由于AIGC的出现,大模型的训练和推理导致智算超越了通算。智 算中心节点规模越来越大,对网络性能(吞吐和时延)要求越来越高,其发展趋势是从scale 核心挑战:超低时延、无损传输与能耗困局 智算中心网络作为连接海量计算资源(万卡/十万卡级)的关键组成部分,其性能直接影响到大模型训练 的巨量数据、分布计算以及并行同步的效率和效果。然而,当前智算中心网络在大规模组网架构、低时延无 损网络技术、高吞吐负载均衡以及智算中心间高速无损互联等方面仍面临诸多技术挑战。 1)智算网络面临的挑战 组网规模与复杂度激增 大模型训练依赖数千甚至数万张GPU的协同计算10 积分 | 38 页 | 9.31 MB | 2 月前3
DeepSeek银行部署加速,AI金融应用迎来跃迁(25页 PPT)法的工程化优化大幅降低了部署成本。近期采用大规模 RL 训练方法的阿里 QwQ-32B 等模型也在缩小规模的同时达到 了 DeepSeek R1 671B 的应用效果,有望进一步催生银行落地应用。 核心观点 DeepSeek 开源、低成本、强推 理 助推银行业应用 1 n DeepSeek 模型在 Post-Train 阶段大规模应用了强化学习方法。 R1 使用了冷启动 + 大规模强化学习方法, R1-Zero R1-Zero 版 本模 型使用纯强化学习方法。随训练过程推进,模型展现出了推理能力的扩展(高准确率和 long-CoT 能力涌现等) 。 性能:后训练阶段大规模应用强化学习,表现推理能力扩展 资料来源: DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning ,中泰证券研究所 资料来源: 通过优化训练方法显著降低了算力消耗,使其在大规模数据处理中的成本更具优势。 它在 MoE 架构的基础上, 通过多头潜注意力机制( Multi-Head Latent Attention , MLA )进行优化;在后训练阶段采用冷启动 + 大规模强化学习 方 式,不再使用传统 SFT 做大规模监督微调, 甚至绕过了一些 CUDA ,采用 PTX 汇编来提升能力;在推理场景下通过 大规模跨节点专家并行( Expert10 积分 | 25 页 | 1.44 MB | 1 月前3
电力人工智能多模态大模型创新技术及应用方案(35页 PPT)识库驱动决策, 受限于知识获取 成本与规模瓶颈。 以符号逻辑为 核心,依赖人工 规则与推理系统 ( 如 专家系统 ), 强解 释性但泛化 能力 弱。 基于海量数据与 大规模预训练; 代表算法: DeepSeek 系列 Qwen 系列 GPT 系列 通过模型组合提升 预测精度; 代表算法: 随机森林 梯度提升决策树 神经网络 ) 深度学习机器学习人工智 能 于注意力机制的 Transformer 架构改变了自然语言处理 的范式,使大规模预训练成为可能。近年来,大模型凭借超大规模参数和海量数据学习,在多模态学习、 推理和通用人工智能方向取得重要进展,为人工智能的发展开启了新的阶段。 大模型 模态扩展 文本 检索增强 图像 / 视频 大规模基础模型 音频 电力大模型 医疗大模型。 Transformer 架构 注意力机制 自研电力大模型意义重大 ( 数据 层 面 ) 文本数据 电气信号 图像与视频 研发 电力通用大模型开发需要大规模、高质量、多维度的数据集 数据构建难度大 电力数据获取难度高、质量 差 异大、覆盖模态多,因而数 据 集构建难度大 与通用数据差异大 模型训练数据与电力任务场 景数据差异大;难以直接 应10 积分 | 35 页 | 7.61 MB | 22 天前3
面向双碳目标的新型电力系统演进路径与挑战(40页 PPT)三种 降碳模式及其关键影响技术的发展,零碳演进路径主要存在三种可能演进方向。 2060 年仍充许一定的排放配额 [ 演进方向 1 大规模新能源 + 煤电 +CCUS 演进方向 2 超大规桢新能源 + 储能 + 需求侧响应 演进方向 3 更大规模新能源 + 储能 + 电氢 》二、新型电力系统演进路径 新型电力系统两大演进路径 路径 1 低碳演进路径 路径 2 零碳演进路 径 为 0 2030 年 目 标场 景 路径 选择 ◆ 2045 年 2060 年 8 新型电力系统关键影响技术——零碳路径下演进方向 1( 大规模新能源 + 煤电 +CCUS) 口 现有发展模式下延续性最好的演进方向,在新能源大规模发展的同时,煤电仍得以较多保留,但需要 依靠 CCUS 技术实现煤电碳排放的移除。 口 预计到 2030 年,煤电总装机仍需保持约 13.5~14 10 亿吨 / 年。 2030 年高峰负荷日电力平衡 2060 年高峰负荷日电力平衡 》二、新型电力系统演进路径 CCUS mu 新型电力系统关键影响技术——零碳路径下演进方向 2( 超大规模新能源 + 储能 + 需求侧响 应 ) 口 在方向 1 的基础上,如考虑到 CCUS 技术的成熟度和经济性问题,以及高调节性能、低利用小时数 煤 电的技术经济性和生存机制等问题,导致煤电无法保留足够规模,新能源装机规模需进一步增加。10 积分 | 40 页 | 9.91 MB | 2 月前3
全球重点区域算力竞争态势分析报告(2025年)-中国通信工业协会数据中心委员会高功耗挑战的液冷散热 技术以及模块化架构成为重要发展趋势,ODM厂商代表如浪潮、纬创、富士康与品牌商 戴尔、HPE、联想、华为、新华三之间竞争激烈。海量数据吞吐需求依赖高速存储技 术,而保障大规模算力集群高效协同的关键则在于高速互联网络如InfiniBand和RoCE, 以及持续升级的光通信技术。 全球重点区域算力竞争态势分析报告(2025年) 9 中游算力服务与软件平台层扮演着连接硬件与应用的桥梁角色。操作系统层面,从 了GPU计算的软件生态;开源社区如Hugging Face则提供了丰富的模型库与工具集,加速 了AI应用落地。数据服务与管理、中间件与平台软件等环节也发挥了重要的辅助和连接 作用。数据中心作为算力的物理承载中心,其发展呈现出超大规模化、绿色低碳化、智 能化运维以及为满足低延迟需求而部署边缘节点的显著趋势,绿色低碳化具体表现为广 泛应用液冷和自然冷却技术,并积极利用可再生能源。中国的“东数西算”战略是推动 数据中心区域协同 全球重点区域算力竞争态势分析报告(2025年) 12 全球重点区域算力竞争态势分析报告(2025年) 13 全球重点区域算力竞争态势分析报告(2025年) 13 长的核心动力。自2022年ChatGPT问世以来,大规模模型的训练与推理对计算资源提出 了前所未有的高要求。据国际数据公司(IDC)预测,全球AI计算市场规模将从2022年 的195.0亿美元增长至2026年的346.6亿美元。其中,生成式AI计算市场规模将从810 积分 | 114 页 | 8.80 MB | 1 月前3
AI+管理 成就不凡——中型企业数字化转型实践分享(22页 PPT)信息化时代 新质生产力时代 动力来源 工业经济 数字经济 技术巨变 消费巨变 中小制造企业现在处于工业经济向数字经济转型的大潮 数字经济 大规模服务 工业经济 大规模生产 注:数字经济的大规模服务来源于得到王煜全老师 -2024-K-00371151), 欢迎转载,欢迎交流 13 大规模生产 关 注 “ 技 术 产 品 ” 1 、大规模生产 ( 大规模定制 ) 部件厂商 零部件设备厂商 生产厂商 设计商 生产商 销售商 服务商 3 、生产服务业 ( 项目制造 ) 新思维:大规模服务引发制造产业链的三个并行方向是数字化转型的方向 金蝶 大规模服务 关注“用户价值” 2 、消费服务业 (10 积分 | 25 页 | 3.87 MB | 1 月前3
VISOM 生态环境智慧环保 大数据云平台解决方案(20页 WORD)用服务器层、数 据资源层和底层软硬件基础;另有两个子系统:标准系统和安全保障系统。把与实际业务有关 的模块集中在应用表示层,把数据处理有关的放在数据处理层,由并行计算环境层提供海量 的存储与大规模计算,数据接口系统作为平台统一的数据来源,及输出接口;运行保障子系 统给整个平台提供不间断的运行维护及安全保障。 生态环境智慧环保大数据云平台系统架构设计 4.2 总体构成 4.2.1 数据接口 个其它应用的基础数据,并提供相关的计算模型进行反向耦合计算。 4.2.4 基础软硬件层 基础软硬件层是大数据平台的基础,其中并行计算部分是核心驱动层,其基础计算能力直 接影响上层的运行效率与运行速度。并行计算环境层为上层提供大规模计算与存储服务,并 行计算环境由工作流协调处理系统,并行式计算系统.数据仓库,并行式文件系统组成;并行 计算环境层由一个服务器集群组成,集群规模随着平台的计算需求进行扩充。 4.3 平台建设关键技术 从以上大数据的特性分析可知,我们生态环境的海量数据价值发现的核心前提条件是: 大规模的基础运算能力与海量的存储能力,高效的数据价值提取算法。 在分布式/并行式计算系统没有出现之前,大规模的 计算资源 只能由超级计算机来提供, 这是一种昂贵的资源,把大部分中小团队拒之门外;约 2006 年云计算技术开始发芽,至 2010 前左右随着云计算技术的发展成熟,大规模分布式/并行式计算系统也得到了发展壮 大,并快速成熟20 积分 | 20 页 | 2.69 MB | 1 月前3
智能算网_AI Fabric2_0_研究报告-中国信通院&华为各 类核心业务在任意位置发生,都能由最优计算节点响应处理。这就要求异地数据中心间具备 全局流量调度能力,可根据链路延迟变化动态切换支付结算类关键业务路径,实现用户“零 感知”切换。 2)超大规模与智能韧性协同演进挑战加剧 伴随通用计算服务器迈向50万乃至百万级规模,单数据中心网络的物理规模与逻辑复杂 性激增。传统依赖人工策略管理的模式已无法满足需求。带宽对等化、毫秒级切换等硬性要 求,迫使网络架构向深度智能化演进: 延迟、高带宽的RDMA(如RoCEv2)将普遍应用于金融核心交易与关键数据库同步环 境,对无损以太网能力提出严峻挑战。此外,传统Spine-Leaf的CLOS架构是否适用超 大规模的数据中心,如何应对多POD间的大规模流量灵活调度,也将面临新的挑战。 “战争级”韧性催生容灾与加密升级:为应对地质灾害及冲突破坏,如何支撑数据中 心网络“中枢”在极端环境下的通信能力成为关键瓶颈。网络需要基于智能故障感知恢复, 级为基于AI模型的实时主动防护,要求在交易的同时快速做出判断。以某国内领先的银行为 例,其日均交易额约1.03万亿元,日均交易笔数达数亿级别,每秒交易上万次,会产生大量 的高频并发,需要超千卡的大规模、高性能的推理网络。 7 AI应用升级,对时延更加敏感:AI应用从当前的对话类/推荐类业务,将向AI助手/智 能体/云服务演进,随着应用的升级,例如远程AI医疗、量化交易等要求<5ms的时延,带10 积分 | 50 页 | 2.72 MB | 22 天前3
新质互联网智鉴报告(2025)应新质生产力发展的网络新底座,是智能化时代网络技术升级的演进 新方向,服务于全社会的数字化转型和高质量发展。 一、“新质互联网”的内涵与外延 “新质互联网”的核心定义是:面向人工智能等新技术大规模应用所带来的算力部署新需求,基于 IPv6/IPv6+ 等网络基础技术,对包括地面、近空、深空的广阔物理空间的各类算力、终端和数据要素实现泛在连接,所构建 的可靠、高效、安全、智能、绿色的网络技术体系。 I Fabric)需要具备超大规模组网、 1 引自《新质互联网智鉴报告 V1.0》 2 引自《新质互联网智鉴报告 V1.0》 新质互联网智鉴报告(2025) 05 06 无损高吞吐,以及智能容错能力,满足单数据中心算卡从千卡到万卡、十万卡的超大规模集群连接,网络速率从 Gb 级别迈向 400GE/800GE/1.6TE 高速时代,对数据中心网络提出了超大规模扁平化组网、网络级负载均衡、 间维度上看,联算网络由智算中心网络和智能 IP 广域网组成,二者正日益成为业界关注的重点领域。 智算中心网络是支撑 AI 训练和推理的核心载体,承担着在智算中心内提升算力利用率、实现资源动态调度 的重要使命,正向超大规模集群扁平化组网、算网协同、设备液冷等方向演进。一方面,AWS、Meta 等科技巨 头推动智算集群向百万卡级扩展,面临技术和能源双重挑战。当前两层盒式 51.2T 的盒子通过光 shuffle 或者多芯10 积分 | 14 页 | 4.46 MB | 2 月前3
共 209 条
- 1
- 2
- 3
- 4
- 5
- 6
- 21
