DeepSeek冲击下,AI产业对国内电力行业的变与不变................................................................. 9 图表 8: 主流 AI 芯片 FP16 和 INT8 算力功耗比一览 ............................................................................................... 预测,假设基础算力规模按 2023-26 年 15%年复合增速 增长,2023/24/25/26 年算力规模达到 138/159/183/210Eflops。假设功耗不变(基础 算力主要基于 CPU,相比基于 GPU 的智能算力对应功耗无明显增加),以 2022 年装 机规模为基数,对应年均新增装机 3.8GW。 2. 智能算力部分,我们参考国内主要云厂商 CAPEX 计划和芯片供给情况,以其 2023/24/25/26 年算力规模同比增长 10%/30%/60%/60%,到 2026 年规模增长至 653Eflops。在此基础上,我们考虑随技术进步和摩尔定律,国产芯片功 耗下降(2022 年 GPU 功耗 49Gflops/W,2026 年提升至 124Gflops/W),以及数据中 心 PUE 持续下降(2022 年 1.55,到 2026 年下降至 1.35),为支持上述算力规模 2024/25/2610 积分 | 25 页 | 2.88 MB | 5 月前3
未来网络发展大会:2025光电融合网络技术与产业应用白皮书络边缘延伸。当前网络架 构普遍采用“电处理+光传输”的分层方式,这一架构正面临功耗高、 转发复杂、跨层协同效率低等核心瓶颈。IP 流量主导的容量激增对新 一代节能技术提出更高的要求。行业正推动 IP 业务层与光传输层融 合,通过将 DWDM 相干光模块直接部署于路由器等分组设备,消除 独立光转发设备,降低功耗与空间占用。 光电融合技术从最开始的 IP over WDM 方案,已有十余年历史, 基础设施成为行业 共识。传统“电+光”分层架构下,多级转发、重复 OEO(光电光)转 换导致整体链路能效低下。光电融合网络的发展目标之一,正是通过 将高能耗的 IP 处理前移至光层边缘,利用低功耗相干模块(如 400G/800G ZR+)实现 IP 业务直接出彩光进入波分系统,减少两级 OEO 过程,大幅减少中间设备和机房能耗。在架构层面,通过 CPO (共封装光学)、硅光集成、动态光层调度等新技术,推动网络走向“极 引擎线卡、彩光 相干模块、模块化白盒波分设备、模块化白盒路由器、框式商用路由 器等形态。该层直接承载业务转发与光信号调制解调,是支撑 IP 业 务直接入光、光层传输、降低中继损耗、实现大带宽低功耗传输的物 理基础。其形态灵活、接口丰富,可按需部署于算力集群边缘、骨干 传输节点或广域边界侧。 协议层:该层为设备的操作系统与功能编排系统,负责统一管理 设备板卡、端口、链路等资源,支撑算力感知、自适应路径、彩光驱20 积分 | 95 页 | 2.94 MB | 1 天前3
英特尔-工业人工智能白皮书2025年版随着制造工艺提升,集成电路芯片制造的工艺线宽不断缩小,这将带来更复杂和更大规模的电路设计,传统 EDA 设计流程在应对设计规则复杂度、功耗及热管理、信号完整性等方面面临一系列挑战。 将 AI 技术与 EDA 工具相结合,在电路设计阶段,AI 可以自动识别和优化电路拓扑结构,通过深度学习模型预测 不同电路设计的性能指标(如功耗、速度、面积等),从而快速筛选出最优设计方案。这种方法大大减少了人工试 错的时间,加速了设计迭代过程 计中最为耗时的步骤之一,涉及到 芯片上数百万甚至数十亿个元器件的物理位置和连接。AI 技术可以在此阶段通过强化学习等方法,自动学习最优 的布局策略,实现快速而高效的布局布线,同时优化信号完整性、功耗和热管理等关键指标。 半导体晶圆制造过程极为复杂、精密,任何微小缺陷都可能影响芯片性能。晶圆中常见的缺陷包括表面的划痕、裂 纹、污染物、凸起,表面翘曲,切割瑕疵、晶体缺陷等。这些缺陷大多细微不易察觉,通常需要微米级甚至更小的 通过英特尔® PLL 锁相环技术,可锁单 P 核或者 4 个一 组 E 核作为实时任务,而其他核按需动态调整频率 工业特性 • IBECC 内存 • 处理器基本功率范围为 15W 至 45W,低功耗 SKU 支持 无风扇设计 • 工业级 SKU 支持宽温运行 AI 加速 • 英特尔® 锐炬 X 显卡拥有多达 96 个执行单元 (EU),便 于视觉识别、测量以及视觉引导等应用中高度并行的0 积分 | 82 页 | 5.13 MB | 5 月前3
电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页图17: 边缘 AI 的数据传输 ................................................................. 12 图18: 量化可以降低功耗和占用面积 ........................................................ 13 图19: NVIDIA Turing GPU 体系结构中各种数据类型相对的张量运算吞吐量和带宽减少倍数 re training),在大模型场景上, 更青睐于 QAT,因为能够更好的保证性能。量化的优势包括减少内存占用,节省 存储空间,降低功耗和占用面积,提升计算速度。 请务必阅读正文之后的免责声明及其项下所有内容 证券研究报告 13 图18:量化可以降低功耗和占用面积 图19: NVIDIA Turing GPU 体系结构中各种数据类型相对的张 量运算吞吐量和带宽减少倍数 资料来源:NVIDIA,国信证券经济研究所整理 图37:语音交互过程示意图 资料来源:集微网,国信证券经济研究所整理 检测关键词的探测器(Detector)不仅要长时间待机且功耗要足够低到对电池寿 命无显著影响,并最小化内存占用和处理器需求。以 iPhone 的 Siri 为例,iPhone 的 Always on Processor(AOP)是一个小的、低功耗的辅助处理器,即嵌入式运 动协处理器。AOP 可以访问麦克风信号,并用自己有限的处理能力运行一个修剪 版神10 积分 | 25 页 | 2.20 MB | 5 月前3
2025年智算中心冷板式液冷云舱技术白皮书-中讯邮电的芯片模组,单芯片 功率已突破 1000W,单机柜部署功率密度突破 120kW。传统的风冷技术已经无法支持 如此高功耗的芯片,而液冷技术采用高比热容的液体取代空气作为冷却介质,其比热 容约是空气的 4 倍,热传导能力约是空气的 25 倍,散热效率远高于风冷可有效解决 高功耗芯片的散热问题。 冷板式液冷是将液冷散热冷板紧贴在服务器的发热器件,通过冷板式换热器内的 低温流体带走服务器中的 其 通过工作流体的传递特点将中间热量传输到后端进行冷却。 2. 冷板式液冷系统特点 冷板式液冷系统包括二次侧冷却系统、一次侧冷却系统,如图 1 所示。适用于高 密算力规模、智算形态和高功耗设备等场景,冷板式液冷系统具有高密度散热、高效 能、高可靠性和强适用性等特点。 智算中心冷板式液冷云舱技术白皮书 9 图 1 冷板式液冷系统示意图 (1) 高密散热、高 求,可配置水喷雾冷却系统或进风侧湿膜加湿系统。对于无法全年使用自然冷源的液 冷系统应配置机械压缩补冷装置。 为提高液冷侧节能性,宜提高冷源系统一二次侧供回液温度,加大供回液温差, 降低冷源设备的功耗。在保障液冷服务器用冷安全的前提下,液冷换热单元 CDU 室 外一次侧设计进水温度不宜低于 35℃,室内二次侧设计供液温度不宜低于 40℃,一 二次设计供回水/液温差不宜低于 10℃。 2)液冷系统10 积分 | 25 页 | 1.11 MB | 1 天前3
2025年数据中心末端配电母线联合解决方案白皮书-西门子的激增,数据中心正经 历从传统架构向更高密度、更高功率负载的快速蜕变。相比于传统通算服务器,AI服务器单机柜 功率持续大幅度攀升,常规功耗已从传统的10/20kW级跃升至100/130kW 以上,带动机房配电系 统同步进行深度变革。市场主流型号GPU服务器算力及功耗数据如下表所示: *而基于Nvidia NVL架构的NVL72单柜容量已经突破130kW,预计到2030年其单机柜容量会达到1MW。 8*H100 SXM HGX B100 8*B100 SXM HGX B200 8*B200 SXM DGX GB200 NVL72 FP16 稠密算力 (PFLOPS) 服务器 单体功耗 (kW) 整机架功耗 (kW) 2.4 3 8 14 18 180 6.5 5.6 10.2 10.2 14.3 不适用 约26 约22 约40 约40 约60 约130 1 在此背景下,末端配电30 积分 | 26 页 | 20.11 MB | 1 天前3
2025年超节点发展报告-华为&中国信通院更强自主性的方向迈进,这意味着人工智能大模型的发展已进入一个系统性竞争的新阶段。这不仅 定义了技术的前沿,也对底层基础设施提出了前所未有的要求。人工智能大模型对计算基础设施的 挑战是系统性的,涵盖了算力、通信、功耗和运维等多个维度。 然而,这些看似分散的挑战,其根源几乎都可以追溯到一个核心的驱动理论——“规模定律”。 “规模定律”的提出是 AI 发展的里程碑,揭示了模型性能与参数、数据量、计算投入的关系,促使 带 宽成为决定整体训练效率的核心瓶颈。 正是这种瓶颈的演变,最终凸显了传统服务器集群架构面临的三重系统性挑战。首先是通信墙, 千亿级模型一次梯度同步即 TB 级数据,传统以太网难以承受。其次是功耗与散热墙,为破通信墙 而提升密度,促使液冷、48V 供电成为标配。第三是复杂度墙:万级处理器带来故障常态化,从业 界模型 GPT-3 (175B) 到 GPT-4 (1.9T) 的演进为例,随参数增至 利用率问题,进一步抬升运维复杂度。 表 1 不同并行模式下的通信特征 超节点发展报告 11 规模定律驱动的参数指数增长、从训练到推理的场景泛化、以及向多模态与智能体的跃迁,共同 施压基础设施,形成通信墙—功耗散热墙—复杂度墙的循环。未来随着推理深入企业核心业务,需 在低时延下实现高吞吐 / 高并发:逻辑推理等任务将带来推理算力需求或百倍增长,推理也将集群化, 对互联与全局调度提出更高要求。因此,能否20 积分 | 31 页 | 4.79 MB | 1 天前3
2025年基于预制模块化数据中心场景的冷却系统智能调优技术报告10 图 6 架构分层示意图 1.感知层 传感器网络:部署温度传感器(服务器机柜、空调出风口、冷通 道等)、湿度传感器、压力传感器(水管、风管)、流量传感器(冷却 水管道)、电力传感器(设备功耗)等,实时采集环境与设备运行数 据。 末端设备:空调机组、冷水机组、冷却塔、水泵、风机等冷却系 统核心设备,集成智能控制器(如 PLC、DDC)实现本地控制。 边缘计算节点:部分场景下在设备端部署边缘计算单元,对采集 80%制冷能力,非常符合 IDC 数 据机房的高可靠性的需求,同时所选机组的寿命约为 25 年。 (2)水泵:水泵主要优化了其流量及杨程,同时水泵的效率不 低于 80%,有效的提升了水泵的能效,减少了水泵的功耗,同时降低 了水泵的装机功率减少了设备初投资。 1)优化了冷却水温差,减小流量; 基于预制模块化数据中心场景的冷却系统智能调优技术报告(ODCC-2025-06005) 23 2)优化了水 2)优化了水泵的杨程,在系统安全稳定运行尽可能优化系统阻力; 3)选用高效能水泵,最大限度的减小水泵的能耗。 (3)冷塔:优化了冷塔的运行工况,经行双工况选型,确保冷 塔的水量及水温满足系统要求,最大限度的降低系统功耗。 表 3 主机对比 设备名称 冷 量 /kw 功 率 /kw 功 率 对 比 蒸发 器 进出 水温 度 蒸发器 流量 m3/h 蒸 发 器 压 降 /k Pa 冷 凝 器 进 出20 积分 | 33 页 | 3.74 MB | 1 天前3
英特尔-教育行业AI实战手册2024规范的硬件产品 英特尔® OPS 及其扩展版本英特尔® OPS-C 是英特尔针对各 类数字显示系统,例如智慧教室中常见的电子白板、嵌入式 一体机等设备推出的开放式可插拔规范,其不仅在可用性、 可维护性、功耗等方面具有优势,更在显示输出和连接性能 等方面提供了良好的兼容性和易管理性,为教育场景中课堂 行为分析方案的设计和部署提供有效助力。 37 36 实 战 篇 实 战 篇 英 特 尔 中 国 ™ X,来帮助用户在边缘部署人工智能推理能力。 英特尔® Movidius ™ Myriad ™ X 视觉处理器架构引入了全新 深度神经网络处理单元:神经计算引擎。其专门的设计,可 以高速、低功耗地运行深度神经网络。结合16个SHAVE 内核, 神经计算引擎在执行神经网络推理时能实现 716G FLOPS 的 计算性能。 为使 VPU 产品在实战中为智能课堂行为分析方案提供更强 助力 可按字节访问,精确找到读和写的数据位置,消除读写放大 问题 • 5 年全盘写质保可以达到 410 PBW 的写入寿命。 • 将数据长久保存在内存,无需从存储设备重新加载,可加快 重启时间并减少 I/O。 • 降低大内存节点的功耗。 英特尔® 傲腾™ 持久内存可通过灵活配置,为用户提供内存模 式和 App Direct 模式2种不同模式以应对不同场景需求: • 内存模式:无需更改应用即可提供大内存容量,且性能接近 DRAM(具体视工作负载而定)。10 积分 | 40 页 | 4.85 MB | 5 月前3
未来网络发展大会:2025卫星互联网承载网技术白皮书正被探索用于馈线链路,Telesat、Boeing 等企业的星座计划通过该频 段实现卫星与地面站的超高速回传,潜在速率可达 100Gbps,但需解 决大气吸收(氧分子在 60GHz 附近有强吸收峰)与设备功耗问题。 如图 4-1 所示,当前商业星座广泛使用 L/S 波段(Iridium、Globalstar)、 Ku/Ka 波段(OneWeb、Starlink),并正在探索 50.2-52.4GHz 感知卫星星座的轨道参数、链路状态、业务需求等信息,运用复杂的 优化算法生成最优路由策略,并将其转化为流表 / 转发表定期或实 时上注至卫星互联网路由器。这种方式显著简化了星上处理载荷的设 计复杂度,降低了对卫星平台的功耗、算力和存储资源要求,尤其适 合早期小容量卫星星座或对成本敏感的任务场景。然而,集中式路由 对地面中心的依赖性极强,当地面控制器与卫星互联网路由器之间的 通信链路出现延迟、中断或干扰时,路由策略的更新将受阻,导致网 用户的无感卫星接入,单星支持百万级用户并发。未来 技术将向新旧终端兼容演进,一方面通过软件升级使存量 4G/5G 手 机支持基础卫星通信,另一方面在新终端中集成新一代天线技术,提 升天线增益并显著降低功耗。 5.2 应急保障类应用场景 卫星互联网在极端环境与关键任务中构建高可靠通信链路,成为 国家应急管理体系的核心基础设施。其价值体现在快速部署、抗毁性 强及广域覆盖三大特性,为灾害救援、公共安全提供“不断线的生命20 积分 | 85 页 | 3.37 MB | 1 天前3
共 44 条
- 1
- 2
- 3
- 4
- 5
