2025年整机柜服务器产业研究报告提高,新型数据中心逐步向绿色低碳、集约高效、智能运维方向发展: 1) 绿色低碳:随着能源消耗和碳排放问题受到越来越多的关注,更先进的制冷和供电技术被普遍采用,比 如冷板式液冷方案,可降低制冷能耗,支持更高的服务器功率密度,显著优化数据中心PUE(电能利用效率)数 值;同时加大对太阳能、风能、水能等可再生能源的利用,降低数据中心整体碳排放。 2) 集约高效:随着人工智能对算力需求的高速增长, 更高的算力部署密度和更大的 算力集群规模成为新型数据中心的显著特征。大模型的快速迭代加速了更先进的算力芯片模组、更高带宽的大容 量显存和内存、更大规模的高速互连网络的部署,推动了大规模、高密度、高效协同的算力集群部署和发展。 3)智能运维:随着数据中心规模的扩展,智能化运维成为必然路径。依托智能监控设备、自动化管理软件 的普遍部署和应用,实现对数据中心设备的实时监测、故障预警和自动修复,提高数据中心的运营稳定性和可靠 升算 力碳效水平,推动算力基础设施进一步向绿色低碳方向演进。(2023年10 月) 国务院 《数字中国建设整体布局规划》 夯实数字中国建设基础,系统优化算力基础设施布局,促进东西部算 力高效互补和协同联动,引导通用数据中心、超算中心、智能计算中心、 边缘数据中心等合理梯次布局。(2023年2月) 国务院 《关于数字经济发展情况的报告》 提出适度超前部署数字基础设施建设,统筹布局绿色智能的数据与算0 积分 | 63 页 | 4.83 MB | 4 月前3
联盟网络Co-NET2.0白皮书 架构设计及场景示例2025身份 管理以及智能化网络管理,确保网络的高效、灵活与安全运行。新增的四类功能 单元——业务单元、联盟单元、可信单元和智能体单元,协同工作,共同实现联 盟网络的核心功能与价值。 在支撑技术方面,白皮书全面阐述了联盟网络的关键技术体系,涵盖跨域管 理技术、开放解耦技术、安全可信技术以及 AI 与智能体技术。这些技术相互配 合,共同确保联盟网络的高效运行、智能化管理与安全性。跨域管理技术实现不 供坚实支撑。尽管其发展面临技术、管理、标准化与合规性等多方面的挑战,但 联盟网络所蕴含的巨大潜力与多方面优势,预示着其必将成为未来网络生态的重 要组成部分,吸引更多的参与方加入,共同构建一个更加开放、智能、高效与安 全的网络世界。 目 录 1 引言............................................................................. 的集中控制单 元,形成分层 CCM 的结构。 图 2-5 NTN 网络架构设计 12 / 25 3 联盟网络支撑技术 联盟网络的支撑技术涵盖了多个关键领域,这些技术共同确保了联盟网络的 高效运行、安全性和智能化管理。以下是联盟网络的主要支撑技术: 3.1 跨域管理技术 3.1.1 跨域服务网关 智能网关是联盟网络中实现跨主体及主体内部互通的关键接口,它不仅 负责数据的传输和协议0 积分 | 29 页 | 4.03 MB | 5 月前3
中国移动:云智算技术白皮书(2025)“供 给者”,融合中国移动算力、数据、算法优势,提供全方位能力支持; 作为“汇聚者”,打造 AI 生态平台,广泛汇聚多类型模型、多领域 能力、多场景智能体;作为“运营者”,以算网大脑为核心提供高效 运营服务,深化 AI 赋能。在此基础上,全面激活智能算力与应用普 惠新势能。 本白皮书详细阐述了云智算的发展背景、内涵,深入介绍云智算 的关键技术方向,为云智算的发展奠定基础。 云智算的 面向近期,深化研究 AI 芯片统一算力抽象机制及转换方法,强健高性能全 栈异构通用基础软件系统能力,接入更多 AI 芯片,支撑更多编程语言范式,全 面融入高性能推理业务场景,支撑跨厂商低成本迁移、敏捷开发及高效部署。 面向中远期,以“异构 CPU+智算 AI 芯片”一体融通、支撑训推一体的泛 AI 业务为目标,探索虚拟指令集等深度算力抽象技术,形成即插即用的统一 XPU 算力底座与工具链,释放多样算 算力底座与工具链,释放多样算力整体协同效能,推动智算应用生态繁荣发展。 2.2 存储技术 随着智算业务的爆发与模型参数量的增长,智算应用在训练、推理等阶段对 9 存储服务提出了更为严苛的需求,如何对海量复杂的数据进行存储、调度、高效 供给以提升算力利用率及模型训推效率成为传统存储系统面临的巨大挑战。中国 移动通过深度适配智算业务场景、融合高速发展的软硬件技术,为云智算构建高 效、智能、可靠的先进存力底座,进而提升智算应用全生命周期数据供给效率,0 积分 | 30 页 | 716.31 KB | 5 月前3
中国移动:2025数字可信白皮书-构建数字经济互信新底座促进数据的开放流通与深度应用、加速全国算力一体化体系建设等方面进行了 全方位的规划,为数字经济的高质量发展明确了方向和路径。数字行业产业集 群作为提升新质生产力的重要途径,其核心优势在于空间集中、资源共享、平 台协同及高效管理。与此同时形成数字行业产业集群需要建立共融数字可信生 态,在共同的生态当中引入不局限于国内的创新竞争力,反向促进关键领域的 技术瓶颈突破,打破生态间互不可信壁垒,开创可信产业赛道,形成可持续发 共和国国家发展和改革委员会 发布的《关于加快培育发展数据要素市场的指导意见》进一步细化了数据市场 的培育措施,旨在建立安全、有序、高效的数据要素市场体系。通过这些政策 的实施,数据市场的规范化程度显著提高,企业的数据资产管理能力得到了提 升,数据资源的高效利用和价值转化成为可能,从而为数字经济的发展提供了 可持续的数据支持。 法律法规层面,2021 年全国人大常委会通过的《数据安全法》是我国第一 运营成本显著降低,2024 年上半年,物流行业的平均成本同比降低了 10%(来 源:中国物流与采购联合会),自动驾驶技术的应用、智能调度系统的优化以 及物联网技术的普及,使得物流企业的运营更加高效、安全和经济。 信息安全行业 信息安全行业在数字经济背景下,正经历迅猛增长。根据中国网络安全产 业联盟(CCIA)发布的《中国网络安全产业分析报告(2023 年)》,2022 年 第 11 页0 积分 | 50 页 | 1.10 MB | 5 月前3
2025年AI CITY发展研究报告——“人工智能+”时代的智慧城市发展范式创新接、计算、云、区块链等新一代信息技术,构建从感知智能到认知智能的全新技术体系,直接通过 由AI驱动的、具备对话能力的、多模态的智能体界面与之互动,打造数据驱动、具有深度学习能力 的城市级一体化智能协同体系,将推动城市走向更高效、更可持续、更有温度的新时代。 人工智能技术将重塑城市发展模式,带领人类进入智慧城市新阶段。报告提出“AI CITY” 是AI原生的智慧城市,代表了智慧城市的内核升级、建设路线升维、底层逻辑演进,提出的 4年实现了质的阶跃式提升。语言大模型在多个关键维度持 续进化,上下文窗口长度不断扩展,知识密度增强,带动专业大模型持续创新,在金融、医疗、教育、零售、能源等 多个行业实现初步应用,提供更加精准、高效的解决方案。 多模态大模型推动人工智能从单一感知向全场景认知跃迁 大模型发展已经进入多模态融合阶段,多模态大模型融合了多种感知途径与表达形态,能够同时处理文本、图 像、语音等多种数据,并进行深 基础。 高质量数据集量质齐升,持续丰富人工智能训练养料 国家数据局等17部门联合印发的《“数据要素×”三年行动计划(2024—2026年)》提出,强化场景需求牵 引,带动数据要素高质量供给、合规高效流通。我国高质量数据集建设取得积极进展,数据要素市场不断拓展新空 间,2024年数据生产量达41.06泽字节(ZB),同比增长25% 2。庞大的数据规模为人工智能模型的训练提供了丰富 的素材,使20 积分 | 78 页 | 5.45 MB | 4 月前3
2025年智算中心液冷整机柜服务器开放架构多样化算力兼容研究报告的功耗需求日益攀升,传统的数据中心散热方案面临着严峻挑战。在此背景 下,液冷技术作为一种高效、节能的散热解决方案,正在加速改变数据中心的 技术架构和产业格局。 本报告引用和发扬了来自全球计算领域的众多专家学者、技术领军者、优 秀企业的经验总结和著作,深入探讨液冷整机柜设计、液冷智算中心架构优化 及多算力兼容等关键技术,并提出了一套开放、灵活且高效的液冷智算架构解 决方案。该方案兼顾技术创新和工程实践,在提升计算密度的同时有效降低了 算密度的同时有效降低了 能耗,为数据中心的绿色化转型提供了有力的技术支撑。 从政策层面来看,近年来国家持续加大新基建投入力度,明确提出要建设 绿色低碳、高效节能的数据中心。相关部门出台了一系列指导性文件:到 2025 年,全国新建大型、超大型数据中心的电能利用效率(PUE)需控制在 1.3 以 下,而重点区域如东数西算国家枢纽节点的 PUE 更是要求低于 1.25。这些政 策导向使得 别是超节点整机 柜架构设计日益受到关注,这一创新方案通过支持更多 AI 加速器的高速互联, 为构建更高密度、更高效能的计算集群提供了新的技术方向。 我们期望通过本报告的发布,能够进一步促进行业内各方的深度交流与协 同创新,共同推动液冷智算中心技术的发展与应用推广,为构建高效、绿色、 智能的未来计算环境贡献智慧和力量。 全球计算联盟 开放液冷专业委员会 2025 年 40 积分 | 40 页 | 3.21 MB | 5 月前3
智慧公路技术白皮书 v1.0 -华为...............19 5.2 设备互联互通,助力公路机电设备智能化升级 ...............................................22 5.3 高效联接,打造低时延、高可靠、易运维的网络环境 ...................................23 5.4 智能边缘计算,计算更实时,前端更智能 ............... 针对区域路网,由于不同等级公路 在管理体制、发展理念、技术标准 等方面均存在差异,通过对公路系 统的智慧化,可以拉通全面各级公 路间的引导和调度,优化路网运行 结构,提升公路可达性和高效性, 实现空间连通功能的安全高效提升。 信息互通是智慧公路的实现基础。 智慧公路采取全域道路一体化的 发展思路,随着 5G、物联网、人 工智能等技术的发展,基于数据 汇聚和处理机制在应用层实现道 路信息统一管理,为实现全场景 路信息统一管理,为实现全场景 的互联互通奠定基础。具体特征 表现为感知数据从断面、集计交 通运行数据向个体非集计数据演 变;交通事件从被动辨识向风险 预警演变。 安全高效的空间连通 精准有效的信息互通 融合协同的要素融通 需求和挑战 智慧公路技术白皮书 09 安全、效率、绿色、服务,智慧公路建设的共性需求 3.2 公路业务需求可以划分为安全需求、效率需求、绿色需求、服务需求四个层次0 积分 | 43 页 | 3.19 MB | 5 月前3
沙利文:2024年中国智能净水服务行业白皮书与 差异化功能输出,有效实现对细菌、病毒、重金属、农药残留、溶解性 盐类等多种污染物的高效去除。随着 RO 技术的加速商业化,净水器系 统的废水排放比例持续降低,资源利用效率和环境可持续性进一步提升。 总体来看,净水器行业的技术发展进程不仅反映出水处理工艺的持续精细化 趋势,更体现出绿色节能、高效智能与健康导向的产业升级逻辑,成为推动净水 器消费升级与市场细分化的重要技术基础。 其中,经销商模式通常需要通过多层级的经销商渠道完成逐级分销,最终由 零售商向终端用户销售产品或提供相关服务。而直接面对用户的方式则指产品或 服务由品牌商或制造商直接提供给终端用户,省略中间渠道,以实现更高效的用 户触达与服务反馈。 资料来源:弗若斯特沙利文 产品制造通常可分为三种模式,OBM、OEM 和 ODM:(i) OBM 是指企业 以自有品牌开展产品的设计、生产和销售,对产品开发全过程,包括设计、制造 年起实施《净水机水效限定值及水效等级》强制性标准,旨在推动高效节水 型产品的推广和消费者用水习惯的转变。该标准的实施在强化节能环保导向、提 11 升行业准入门槛的同时,也对企业产品的技术能力提出更高要求。目前,部分净 水器产品受限于膜材料性能、系统结构设计等技术因素,尚难以满足较高水效等 级标准,实际运行中存在废水率偏高、单位耗水成本较高等问题。总体来看,尽 管行业整体正向绿色、高效方向加速转型,但部分企业在节能环保技术落地方面20 积分 | 17 页 | 1.21 MB | 5 月前3
基于可编程技术的6G用户面技术白皮书2025超高吞吐量、超低延迟和动态资源调度带来的前所未有的挑战。本白皮书重点介绍了可编程技术支 持的 6G 用户面,系统地探讨了其需求、架构设计和关键技术,旨在为未来的 6G 网络提供灵活、智 能、高效的用户面解决方案。 白皮书首先分析了 6G 移动通信网络对可编程用户平面的核心要求,包括支持多种服务场景(如智 能交互、全息通信和工业互联网)、网络资源的动态适应、差异化的服务质量保证以及计算和通信 可编程用户面的需求及应用场景 1.1 研究进展 当前,业界已开启对下一代移动通信技术(6G)的研究探索。面向 2030 年及未来,人类社会 将进入智能化时代,6G 将构建人机物智慧互联、智能体高效互通的新型网络,在大幅提升网络能力 的基础上,具备智慧内生、多维感知、数字孪生、安全内生等新功能面对如此愿景,6G 的网络架构 和功能也会变得越来越复杂。为了使网络适应未来多变的需求,在 6G 网络中应通过引入端到端可 UE-UE、UE-RAN、 RAN-RAN、RAN-CN NF、CN NF-CN NF 等多种数据传输场景,不同的数据类型也对传输数据的协 议提出了不同的需求,如 AI 和感知数据量较大,传统的 GTP-U 协议是否能高效的传输此种类型的 数据,也存在着很大的疑问和挑战。在 IMT-2030(6G)的数据服务测试中,基于核心网网元 AIEF 与 UPF 之间传输 AI 模型数据的场景,对 HTTP 2.0 和基于0 积分 | 34 页 | 4.53 MB | 5 月前3
英特尔公有云和互联网创新实践可扩展处理器加速自然语言处理 (NLP) 应用 助力企业服务数智化转型 图 3. 第五代英特尔® 至强® 可扩展处理器具备强大性能 为 AI 加速而生的处理器 以针对工作负载优化的性能实现业务增长和飞跃 以高效节能的计算助力降低成本与碳排放 值得信赖的优质解决方案和安全功能 21% 整体性能提升 42% 推理性能提升 2.7 倍 三级缓存提升 10 倍 每瓦性能提升 16% 内存速度提升 Llama-2-7b 模型首 Token 时延降低达² 利用充足的 CPU 资源, 降低 LLM 推理服务 TCO 百度智能云千帆大模型平台可支持广泛的英特尔® CPU 选择 扫码获取全文 英特尔® AMX 可以更高效地实现 AI 加速 85 int8 ops/cycle/core with 2 FMA 256 int8 ops/cycle/core with 2 FMAs 2048 int8 ops/cycle/core earch-network-llms.html * 荣获第二届“华彩杯“算力大赛 2024 年全国总决赛一等奖 3 解决方案:基于第五代至强® 的 CPU 算力方案 为中国电信网络大模型提供高效能推理 CPU 在传统上被视为更适于 AI 负载中的通用计算,例如大 模型应用的前期数据准备、知识库的存储和处理等工作。随 着更多 AI 加速技术嵌入 CPU,以及围绕 CPU 平台的 AI 生10 积分 | 38 页 | 12.52 MB | 5 月前3
共 44 条
- 1
- 2
- 3
- 4
- 5
