2025采用自同步技术的构网型光伏逆变器-高比例新能源时代电网稳定性的核心支撑白皮书20 积分 | 11 页 | 23.31 MB | 3 月前3
2025年深圳数字能源白皮书-深圳市发改委探索“光储微网 + 新型农业”未来场景 开展农业生产数据智能采集与分析系统研发 构建光储微网协同调度模型 结合指针式喷灌机、滴灌、微喷灌 减少地表径流与蒸发损耗 精准控制水量供给 采用“沙膜技术”,添加“植物纤维粘合剂” 增加沙粒聚集度,具备结团能力 有效重塑局部区域生态环境 13 14 9 10 安全 极简 架构安全: 主动安全: 网络安全: 产品安全: (2)高效光热:光热发电是目前唯一具备替代煤电“带基荷”潜力的新能源方向,持续优化聚光集热设备、储 /换热设备、熔盐材料、控制技术、运行策略,打造低成本、高效产品解决方案。 (3)薄膜光伏:薄膜光伏是一种新型太阳能电池组件,采用碲化镉、钙钛矿、铜铟镓硒等材料。组件可通过卷 曲或弯曲等方式实现柔性设计,适应不同形状和曲面的应用需求。 (4)钙钛矿/晶硅叠层技术:钙钛矿/晶硅叠层技术是将钙钛矿材料与晶硅电池结合,通过“钙钛矿吸收短波 排1340.99吨。 17 18 中广核+可胜技术·格尔木350MW塔式光热发电项目 关键技术 全球规模最大的聚光集热系统——三塔一机系统。格尔木350MW项目采用三塔一机技术,即三座镜场集热,并盐后共用 一台汽轮机。采用37㎡高精度、高可靠性智能定日镜,镜场总反射面积约330万㎡,是全球已投运单机最大镜场(迪拜 100MW项目为175万㎡)的1.89倍。 成效 熔盐储热系统分散布30 积分 | 47 页 | 36.41 MB | 24 天前3
行业数字化转型成熟度评估通用标准详见6-13章。其中“-”,表示该评估维度在该能力等级下,无具体要求。 6 产品发展能力类 产品发展能力类衡量组织产品生命周期管理与运营能力水平,如产品数字化迭代能力及产品研发 与设计能力,指从概念设计阶段开始,采用数字协同设计体系,利用参数化对象建模等数字工具,开展 产品的研发与设计活动。产品发展类包括产品创新、研发设计2项能力集。 产品创新 产品创新能力集包括产品数字化升级、数字产品孵化、定制化支持、研发资产化 期 过 程? 组织不具备基于 数字化技术的产 品仿真的能力 组织考虑引进产 品仿真相关的数 字化技术 组织对试点产品 采用数字化技术 进行仿真分析 组织对部分产品 应用数字化技术 进行仿真分析 组织对全部产品进行 基于数字化技术的仿 真分析 组织采用数据孪 生、CPS 等技术, 建立试验验证模 型,持续提升产 品与模型的匹配 度,实现产品设 计的快速验证和 优化 T/CAICI L3 L4 L5 L6 规划工艺 流程的手 段 是否使用数 字化手段进 行工艺流程 规划? 组织未使用数字 化手段进行工艺 流程规划 组织考虑采用数 字化手段进行工 艺流程的规划 组织对试点产品 的工艺流程采用 数字化手段规划 组织的部分产品 实现工艺流程的 数字化规划 (1)组织的全部 产品实现工艺流 程的数字化规划 (2)组织基于工 艺知识库的集成 应用,辅助工艺优0 积分 | 73 页 | 1.22 MB | 4 月前3
2025AI供电的未来:重新定义AI 数据中心供电白皮书-英飞凌com/wepowerai 2 目录 Adam White 寄语 3 引言 4 一、现代处理器的供电 5 预测一:垂直供电将成为现代处理器的关键技术 5 预测二:服务器主板将采用高压直流供电架构 7 二、AI 服务器机架的供电 12 预测三:AI 服务器机架的功耗将超过 1 兆瓦 12 预测四:AI 的能耗需求将推动电源架的功率等级突破 100 千瓦 13 数据中心内采用全新 的配电体系。此外,数据中心作为用电大户,也需具备负载调节能力,并能够为电网提供辅助服务。 本白皮书将探讨当下及未来在“从电网到核心”理念下,为 AI 提供电力的可能情景,并阐述其基础技术概念。 5 一、现代处理器的供电 预测一:垂直供电将成为现代处理器的关键技术 图形处理单元(GPU)以及专用于 AI 负载的处理器(例如,张量处理单元(TPU))正在采用最先进的工艺制程(例 电流消耗预计将在十年内攀升至 10,000 A。这种极高的电流水平以及对瞬态负载响应的严苛要求,成为电压调节模 块(VRM)在 12 V 典型中间总线电压下为处理器供电时,所面临的最大挑战。 传统的横向供电方式采用分立功率级和独立电感,但在如此高的电流下,不仅占用空间庞大,还会在供电网络(PDN) 中造成显著损耗。因此,未来电能将通过主板,以垂直供电的方式,传递至处理器背面。 6 图 2:VRM 解决方案从分立功率级到背面垂直供电模块演进10 积分 | 23 页 | 14.75 MB | 24 天前3
医疗健康场景引入DeepSeek AI大模型可行性研究报告(144页 WORD)病变检测:通过训练好的模型,系统能够自动识别影像中的病 变区域,并进行分类,如肿瘤、炎症、骨折等。 4. 诊断建议:基于检测结果,系统能够给出初步的诊断建议,并 生成详细的报告,供医生参考。 为了进一步提升系统的准确性,可以采用以下策略: 多模态融合:结合不同类型的影像数据(如 CT 与 MRI),进 行综合分析和判断,以提高诊断的全面性。 持续学习:通过不断地输入新的病例数据,更新和优化模型, 使其能够适应不断变化的医疗环境和新的疾病类型。 最具影响力的特征。这不仅可以减少模型的复杂度,还能提高模型 的泛化能力。例如,在心血管疾病预测中,可以通过特征重要性分 析确定血压、血脂、血糖等关键指标,作为模型的输入变量。 在模型构建阶段,DeepSeek 技术采用深度学习算法,如卷积 神经网络(CNN)、循环神经网络(RNN)和长短期记忆网络 (LSTM),来构建高精度的预测模型。这些算法能够捕捉数据中 的非线性关系和时序特征,从而提高预测的准确性。例如,对于癌 的精准评 估。 此外,模型验证与优化是确保模型性能的重要环节。通过交叉 验证、ROC 曲线分析等方法,可以评估模型的预测能力,并通过调 整超参数、集成学习等策略进一步优化模型性能。例如,可以采用 集成学习中的随机森林算法,结合多个单一模型的预测结果,以提 高模型的稳定性和准确性。 在这一过程中,还需要注意以下几点: 数据隐私与安全:在数据的采集、存储和处理过程中,必须遵 循相关法律法规,确保患者隐私的保护。20 积分 | 151 页 | 370.68 KB | 4 月前3
2025AI供电的未来:重新定义AI 数据中心供电白皮书-英飞凌com/wepowerai 2 目录 Adam White 寄语 3 引言 4 一、现代处理器的供电 5 预测一:垂直供电将成为现代处理器的关键技术 5 预测二:服务器主板将采用高压直流供电架构 7 二、AI 服务器机架的供电 12 预测三:AI 服务器机架的功耗将超过 1 兆瓦 12 预测四:AI 的能耗需求将推动电源架的功率等级突破 100 千瓦 13 数据中心内采用全新 的配电体系。此外,数据中心作为用电大户,也需具备负载调节能力,并能够为电网提供辅助服务。 本白皮书将探讨当下及未来在“从电网到核心”理念下,为 AI 提供电力的可能情景,并阐述其基础技术概念。 5 一、现代处理器的供电 预测一:垂直供电将成为现代处理器的关键技术 图形处理单元(GPU)以及专用于 AI 负载的处理器(例如,张量处理单元(TPU))正在采用最先进的工艺制程(例 电流消耗预计将在十年内攀升至 10,000 A。这种极高的电流水平以及对瞬态负载响应的严苛要求,成为电压调节模 块(VRM)在 12 V 典型中间总线电压下为处理器供电时,所面临的最大挑战。 传统的横向供电方式采用分立功率级和独立电感,但在如此高的电流下,不仅占用空间庞大,还会在供电网络(PDN) 中造成显著损耗。因此,未来电能将通过主板,以垂直供电的方式,传递至处理器背面。 6 图 2:VRM 解决方案从分立功率级到背面垂直供电模块演进10 积分 | 24 页 | 14.75 MB | 3 月前3
湖南大学:2025年智算中心光电协同交换网络全栈技术白皮书机外互联:用于跨服务器或跨机柜的 GPU 通信,需依赖高速网 络结构实现。当前主流方案采用电交换芯片构建以太网或 IB 网络, 常见架构包括 Fat-Tree、Leaf-Spine、DCell、BCube。这些结构通过 多层交换机实现大规模互联,支撑分布式训练中的全互联需求。 图 1-1 智算中心网络与网络协议栈 无论采用机内互联还是采用机外互联,都要采用电交换芯片来做 网络流量交换。然而,随着模型规模和节点数的增加,电交换面临带 摩 尔定律逐渐失效,交换芯片的更新迭代速度明显放缓,芯片交换容量 难以实现持续增长。目前主流商用电交换芯片已发展至 102.4 Tbps 级 别,例如 Broadcom Tomahawk 6 采用 3nm 制程工艺,可提供多达 12 8 个 800 G 端口或 64 个 1.6T 端口。而国产交换芯片仍停留在 7nm 制 程的 25.6Tbps 交换容量,瓶颈效应更加严重。然而在实际部署中, 练来说,动态时延由 10us 增加至 1000us,GPU 有效计算时间占比将 降低 10%左右。同样,大模型推理对网络时延也有着更高的要求,以 确保能够为用户提供优质的推理服务。 传统数据中心网络普遍采用多层电交换架构,通过网卡与交换机 连接多个计算节点,数据包在传输过程中需要经过多个交换节点的中 转。受制于电交换“存储—转发”的工作机制,数据包必须在交换机 内部进行排队等待,多层级的交换路径使得这一排队延迟被进一步放20 积分 | 53 页 | 1.71 MB | 4 月前3
全球计算联盟GCC:2025年异构算力协同白皮书。 4 1.2 算力发展现状 国外以英伟达、AMD 为首的两大芯片巨头凭借其技术优势,在算力领域长期占据领先 地位,在全球范围内,两大芯片巨头占据全球算力市场 34%的份额: (1)英伟达采用“单封装双芯粒”路线,把算力密度和内存带宽推到极致,也带来高 耗电和高昂的成本,2025 年推出 Blackwell B200,并抛出 2026–2027 路线图,Vera Rubin 与 Rubin 将延续“多芯粒+大内 存”策略,试图以性价比和能效比撕开英伟达的生态护城河。2025 年 6 月的 Advancing AI 大会上,AMD 发布 MI350 系列(MI350X/MI355X),采用 CDNA4 架构、台积电第二代 3 nm、 1850 亿晶体管、288 GB HBM3E、峰值 2.3 PFLOPS,与 B200 针尖对麦芒,2026 年的 MI400 更将迈入 2 nm,432 全互联架构,搭建“芯片—XPU-Lite 框架— 千卡 1.2 TB/s XPU-Link 集群—百度文心大模型”四级闭环,已在百度内部提供 90%以上文 心系列训练算力,日均稳态负载 85%+。 (3)壁仞科技采用 Chiplet 架构设计大算力芯片,其首款 GPGPU(General-Purpose Computing on Graphics Processing Units)产品 BR100 在 202210 积分 | 31 页 | 1.21 MB | 4 月前3
面向大规模智算集群场景光互连技术白皮书(2025年)-中移智库B/s级)且无收敛的互连 能力;二是算力密度高,由单个或多个机柜构成,包含32个以上甚至 到千卡的GPU数量,不断逼近电互连物理部署极限;三是能效PUE高, 超节点单机柜功率可达40kW以上,采用液冷为主、风冷为辅的散热方 案,配合柜级集中电源供电,在提供更高供电效率的同时大幅降低数 据中心PUE。 面向大规模智算集群场景光互连技术白皮书 (2025) 3 为了实现更高的集群算效水平,互连技术方案的演进迫在眉睫。 Engine)集成在可插拔模块中,如下图所示,通过PCB(PCB, Printed Circuit Board)板级走线与有独立基板的xPU(GPU, NPU, Swtich, etc)相连。目前市场主力产品的速率已达800G,未来采用硅光技术可 达1.6T水平,封装向高密度QSFP-DD/OSFP等演进。但面向智算未来高 速率1.6T/3.2T以上的互连场景下,可插拔光模块将面临信号完整性恶 化、依赖数字信号处理器(DSP,Digital 智算集群未来演进需求的潜力,后续将聚焦该类技术展开具体分析。 表 2-1 传统电交换和光交换(OCS)对比分析 分析维度 传统电交换 OCS 原理 传统电交换采用队列存 储-转发方式,根据报文 头信息将不同的数据包 转发至不同的输出端口 内部采用MEMS技术(或压 电陶瓷等其他技术),直 接将光信号折射到对应 的输出端口 工艺制程 要求高,依赖先进工艺, 51.2T需要3nm制程 要求低,180nm成熟工艺10 积分 | 52 页 | 5.24 MB | 3 月前3
华为:2025践行主机现代化:主机上云技术白皮书模数据处理和高并发事务的挑战。操作系统则专为这类主机设计,具备强大的资源管理能力和并行处理性能。 主要特点: 高性能:采用多处理器集群架构,实现大规模并行计算,处理器集成专用加速单元,通过硬件级加密引 擎实现加密运算的加速处理 高可靠:硬件组件(处理器、内存、存储)普遍采用冗余设计,不会因单点硬件故障而引起系统中断 高安全:主机通常采用内置硬件加密模块,实现数据的加密处理与密钥管理,从而保障数据在存储、传 输及处理过程中具备机密性与完整性 级和功能迭代依赖原厂支持,流 09 程繁琐且周期长,难以及时响应业务变化(主机厂商硬件升级周期通常为 3~5 年),远滞后于业务对敏捷创 新的需求(如互联网业务的周级迭代)。此外,主机技术架构采用专属协议与接口,新应用或第三方工具难以 接入集成,与云平台、分布式数据库的集成需开发专用接口,集成成本高且易形成“技术孤岛”。 (2) 扩展性不足无法应对大规模业务挑战 传统主机技术栈主要依赖 大数据、AI、区块链等技术,但主机技术栈对此支持 有限:一方面,传统主机的编程语言(如 COBOL、PL/I)与现代开发工具及编程语言兼容性不足,原有开 发环境与工具链较为陈旧,且与云原生开发所采用的 Java、Go、Python 等语言存在明确的兼容壁垒;另一 方面,主机系统通常依赖传统的数据存储格式和协议(如 VSAM、IMS 等),而现代的大数据技术框架(如 Hadoop、Spark)使用分布式文件系统(如20 积分 | 63 页 | 32.07 MB | 4 月前3
共 152 条
- 1
- 2
- 3
- 4
- 5
- 6
- 16
