积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部解决方案(36)人工智能(18)维度学堂(13)白皮书(12)智能制造(10)前沿探索(9)研究报告(7)城市民生(7)行业赋能(7)能源双碳(4)

语言

全部中文(简体)(74)

格式

全部PDF文档 PDF(51)DOC文档 DOC(16)PPT文档 PPT(7)
 
本次搜索耗时 0.013 秒,为您找到相关结果约 74 个.
  • 全部
  • 解决方案
  • 人工智能
  • 维度学堂
  • 白皮书
  • 智能制造
  • 前沿探索
  • 研究报告
  • 城市民生
  • 行业赋能
  • 能源双碳
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • DOC文档 DOC
  • PPT文档 PPT
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 京东物流超大规模仓储系统智能监控(32页)

    会 2 0 1 9 · 上 海 站 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 京东物流超大规模仓储系统智能监控揭秘 付正全 架构师 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 目录 问题及挑战 1 超大规模监控系统解决方案 2 面向AIOPS的智能监控最佳实践 3 规划&展望 4 G O P S 全 球 运 维 大 会 2 频繁变化的资产,不可靠的CMDB  运维专家匮乏  复合型人才匮乏:AI和算法工程师+运维开发 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 目录 问题及挑战 1 超大规模监控系统解决方案 2 面向AIOPS的智能监控最佳实践 3 规划&展望 4 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 对监控的认识  什么是监控?  为什么需要监控? 题  智能客服机器人 提供智能客服机器人服务,根据人员信息自动推测可能的问题及解决方案 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 目录 问题及挑战 1 超大规模监控系统解决方案 2 面向AIOPS的智能监控最佳实践 3 规划&展望 4 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 故障快照  出现告警自动抓取现场快照信息
    0 积分 | 32 页 | 2.32 MB | 21 天前
    3
  • pdf文档 智算产业发展研究报告(2025)-天翼智库

    恩宣布启动“投资人工智能(InvestAI)”计划,目标筹集 2000 智算产业发展研究报告(2025) 6 亿欧元用于人工智能投资,并专门设立 200 亿欧元基金用于建设 欧洲人工智能超级工厂,以训练高复杂度、超大规模的 AI 模型。 4 月 9 日,欧盟发布“人工智能大陆行动计划” [5],战略核心是将 欧盟固有优势(如高质量人才储备和强大传统产业基础)转化为 AI 发展的关键加速器,力争成为人工智能领域的全球领导者。 2024 年资本支出总额为 2460 亿美元,较 2023 年(1510 亿美元)大幅 增长 63% [16]。Synergy Research Group 数据显示,截至 2024 年底, 全球超大规模数据中心数量达 1136 个,其中,亚马逊、微软和谷 歌三家合计占据全球总容量的 59%,其次是 Meta、阿里巴巴、腾 讯、苹果、字节跳动等。2025 年,微软、谷歌、亚马逊和 Meta 继续扩大 式部署成为新方向。谷歌已组建跨多个智算中心的大规模集群,完成 Gemini Ultra、Gemini 1.5pro 等大模型训练;OpenAI 计划分五个阶 段建设多个智算中心,并通过多智算中心互联最终打造百万卡级别的 超大规模基础设施。中国电信基于国产化算力完成跨百公里千亿参数 模型在千卡规模下的分布式智算中心互联验证,初步证实大模型跨智 算中心分布式协同训练的可行性。 3、AIDC 基础设施持续升级,绿色化转型不断深化
    10 积分 | 48 页 | 3.12 MB | 3 天前
    3
  • pdf文档 智算中心成为新基建的基本条件与智慧时代动力源_王恩东

    智算中心要成为新基建,必须满足以下三个基本条 件:开放标准、集约高效和普适普惠。 开放标准要求智算中心从硬件到软件、从芯片到架 构、从建设模式到应用服务都应该是开放的、标准的; 集约高效要求智算中心的建设要有超大规模,要采用 领先的技术,保证自身的先进性; 普适普惠则要求智算中心发挥基础设施的社会价值, 服务大众。 下面,具体分析这三个条件。 首先是开放标准。通过简单回顾开源开放的历史,可 以看到开放的边界越来越广阔。 设。作为基础设施,要求不同的智算 中心要能够互联互通,包括管理上的 互操作,统一的调度、分发、监控、 运维;业务上的互联接,包括网络打 通、业务迁移等;数据上的互流通, 实现容灾、数据共享等。 二是基础设施的超大规模要求智 算中心应该是集约高效的。首先智算 中心整体设计理念先进,技术上说融 合架构代表着数据中心体系结构的未 来发展方向。融合架构从1.0到2.0, 已经实现了存储资源和异步计算资源 的弹性组合。现在的融合架构正处于 全 的AI计算产品阵列:浪潮AGX-5是目前全球最高性能的AI 计算主机之一;AGX-2是目前单位空间内GPU计算密度最高 的服务器;FP5295可支持CPU和GPU间数据同步传输。浪潮 超大规模AI计算框架LMS,可实现单GPU超大算力支撑,支 持70亿参数的NLP智能语言模型训练,相比主流Bert模型参 数量提升20倍。 第 二 是 聚 合 算 力 。 在 训 练 方 面 , 浪
    10 积分 | 7 页 | 1.48 MB | 3 小时前
    3
  • pdf文档 2025年金融操作系统AI创新与融合实践报告

    ⚫ 针对自主创新芯片服务器优 化 ⚫ 针对自主创新数据库的性能 优化 ⚫ 针对资源利用率的有效提升 15年磨砺 海量实践铸成Ten ce ntOS Ser ver • 支撑腾讯云上用户超大规模的部署和运 行,持续不断的优化,规避故障,提高 稳定性,经受用户关键业务考验 190万+CVM数 经受腾讯云用户关键业务考验 • 从2010年起持续对Linux内核进行贡献 • 连续6年入选全球“KVM开源贡献榜 打破TPC-C 世界纪录 TDSQL+TencentOS组合 国内主流数据库厂商 互认证(部分) 云原生操作系统:轻量安全的云原生底座 国内主流云平台/容器平台 互认证(部分) 基于腾讯云超大规模云原生运营过程中积累的自主研发能力,支持腾讯核心业务的高效运转。云原生操作系统具备深度优化的云原生能力,专为容器、微服 务等架构打造,提供 NetTrace、SLI及 RUE 混部系统等核心特性
    20 积分 | 13 页 | 2.55 MB | 2 天前
    3
  • pdf文档 2025年电子元件供应链的未来之路报告-从过剩到平衡

    单元)专为高算力AI(人工智能)任务设计, 能在与超大规模的定制化软件层协同运行时 显著提升能效。 Broadcom(博通)CEO(首席执行官)Hock Tan预测该领域将迎来爆发式增长,2027年 的AI(人工智能)及AI(人工智能)网络相关 营收预计将从当前的150至200亿美元跃升 至600至900亿美元。亚马逊AWS、谷歌 云与微软Azure等超大规模云服务商正与 Broadcom(博通)联合开发AI(人工智能) 点击此处下载 这一趋势虽预示着专用芯片市场扩容,但业 界专家普遍认为其互补性作用远大于替代性: 通用型GPU(图形处理器)在基础AI(人工 智能)算力中占据主导地位,定制化芯片则 专注于解决超大规模场景需求。此类技术演 进不仅重塑了AI(人工智能)基础设施格局, 更为电子元器件产业注入了持续的增长动能。 AI(人工智能)硬件引领半导体产业革新 HPC(高性能计算)与服务器预计将在2025年
    20 积分 | 18 页 | 5.59 MB | 14 天前
    3
  • ppt文档 火山引擎新一代边缘云解决方案(16页 PPT)

    影视制作 装修设计 数字可视化 渲染场景 资源编排 CPU 云主机 GPU 云主机 高效云盘 VPC 网 络 弹性 IP 火山引擎边缘云 超大规模边缘资源 超高产品性能 超流量场景验证保障 高性能标准硬件资源 NVMe SSD IO 时延 <1 ms 内容分发和加速网络创新 边缘计算节点创新 异构算力 CPU\GPU\ARM 自研高性能实例 PPS>700W 支持自定义限速 多种计费模式 云边镜像 ¢ 键 分 发 带 超大规模的接入点 单节点海量流量承载能力 智能调度 提供质量稳定加速资源 自研的传输优化、智 能缓存、动态路由 边缘渲染 边缘智能 火山引擎边缘云产品创 新 新基础 底座 离线渲染
    10 积分 | 16 页 | 1.93 MB | 2 天前
    3
  • pdf文档 2025年6G“零中断”网络设计白皮书-中移智库

    发二 次危机,故障影响范围持续扩大、定位复杂度进一步增加,恢复时间延 长。  做好风险化解,避免大面积瘫痪故障:数据网元(例如UDM、HSS)作 为移动通信网核心所在,该设备的故障将引发超大规模的用户重注册、 进而引起信令风暴,需要考虑相应机制分担数据网元故障后的风险与压 力。  做好动网预演,避免操作不当带来风险:部分事故是由于管理机制不完 善,在网络升级改造、调整维护时缺少预演预验证手段,导致一些误操 机制和4/5G网络形成新形态的高低制式间的互补与兜底。 1.3 6G 网络可靠性挑战分析 6G网络将覆盖更广泛的应用场景,赋能多行业、多领域的智能化服务。ITU-R 在2023年明确了6G六大核心场景,包括沉浸式通信、超大规模连接、极高可靠低 时延、感知与通信的融合、人工智能与通信、泛在连接。这些新场景普遍要求网 络提供更高稳定性,同时对网络可靠性也提出一些新挑战。 图 2 ITU 定义 6G 六大核心场景 1 P2P 动态组网,需实 时组建协作网络并共享环境信息,现有网络的静态子网管理与路由机制难以满足 动态协同需求,亟需提升网络动态组网与智能调度能力以保障业务可靠性。 1.3.3 超大规模连接,瞬时信令冲击加倍 6G 超大规模连接场景下,海量物联设备接入(每平方千米可达百万至亿级) 对网络可靠性形成多重挑战。终端规模百倍于 5G 时代,网络异常恢复时的大规 模重连易引发信令风暴,远超现有网络抗 “浪涌”
    0 积分 | 36 页 | 2.50 MB | 3 天前
    3
  • pdf文档 2025年超节点发展报告-华为&中国信通院

    支撑大模型创新及云服务场景 加速人工智能科学计算,服务算法创新 助力行业企业智能化升级 系统特征 AI 技术从单点能力突破迈向系统能力创新 超节点技术产业生态发展格局 基础特征:大带宽、低时延、内存统一编址 超大规模 扩展特征:多级缓存池化、资源灵活配比 超高可靠 灵活切分 大模型计算基础设施的挑战 小结 小结 CONTENTS 目录 超节点发展报告 02 当我们站在人工智能大模型技术飞速发 一体化的设计思维,将计算、存储、网络与运维管理深度融合,锻造出高性能、高效率、高可靠的 单一逻辑实体。它标志着一个全新时代的开启——智算基础设施正从松散组合的算力堆叠阶段,迈 入软硬协同、全局优化的超节点阶段,旨在有效破解超大规模 AI 训练与推理中所面临的扩展性瓶颈、 效率损耗与能耗墙难题,为 AI 的持续创新提供坚实、高效、绿色的算力基座。 为系统分析超节点技术的发展逻辑、技术创新、产业价值以及未来趋势,我院与华为及相关单位 人工智能高速演进背景下,算力需求呈指数级增长,大模型竞争已进入 “参数规模摸高” 与 “训 练效率提升” 并行的新阶段。Scaling Law(规模定律)将以多元形态长期生效,持续推动人工智 能技术突破能力边界,而超大规模 Transformer、MoE(混合专家模型)、稀疏注意力模型等,已 成为可扩展模型的核心架构方向。在复杂的混合并行策略下,随着并行规模持续扩大,系统节点间 通信带宽与可用显存容量成为制约大
    20 积分 | 31 页 | 4.79 MB | 2 天前
    3
  • pdf文档 面向大规模智算集群场景光互连技术白皮书(2025年)-中移智库

    规模演进。随着单节点算力突破每秒百亿亿次,这类超大规模集群的 极致计算能力对互连链路带宽、延迟和功耗提出了极其严苛的要求。 传统基于铜介质的电互连方案,正面临 “带宽墙”、“延迟墙”及 “功耗墙”等三重严峻挑战:单通道速率难以突破400Gbps,传输延 迟高达数微秒,单机架互连功耗占比更是超过40%,这一系列瓶颈已 成为制约超大规模智算集群算力释放的核心障碍。 相较于传统可插拔光模块等设备级光互连技术,芯片级光互连正 DSP补偿。 光交换为突破电交换的限制提供了新的路径: 一是,其在光层面直接完成端口间的切换,无需O-E-O转换,彻 底绕开了制程、缓存和SerDes衰减等物理瓶颈,可支持极高传输速率 与超大规模集群部署。光交换天然具备速率和协议无关的特性,从 400G到800G乃至1.6T均可平滑支持,在速率升级时无需更换交换设备, 极大降低了系统演进的复杂度和成本。 二是,光交换通过端到端光路直通,避免了复杂的包解析与缓存 FPGA产品中, 实现了高带宽、低功耗和延时的光FPGA产品。同时,英伟达、AMD也 参与了Ayar Labs 2024年的D轮融资。通过应用相关光引擎和激光技术, 替代传统电互连,以解决超大规模GPU集群的通信瓶颈。 面向大规模智算集群场景光互连技术白皮书 (2025) 27  Lightmatter产品及技术方案 初创企业Lightmatter推出了基于3D封装技术的CPO产品Passage
    10 积分 | 52 页 | 5.24 MB | 3 小时前
    3
  • pdf文档 2025年云智算光互连发展报告-中国移动

    云智算光互连发展报告 前言 本发展报告面向未来智算中心超大规模扩展、AI 大模型极致性 能与高效部署的核心需求,联合产业合作伙伴共同提出先进光互连 技术架构与演进路径,旨在突破传统电互连在带宽、距离与能效方 面的根本性瓶颈,构建高带宽、超低时延、低功耗及高可靠性的新 一代智算中心互连底座,为人工智能、高性能计算及云服务等关键 业务的持续跃升提供坚实支撑。 本发展报告的版权归中国移动云能力中心所有,并受法律保护。 算力集群的 带宽瓶颈、延迟损耗与扩展桎梏,为“N+X”智算节点的弹性组网提 供核心支撑。这一升级并非简单的硬件替换,而是覆盖数据、控制、 管理多平面的系统性算网协同革新。随着移动云呼和浩特、贵阳等 超大规模智算中心的落地,单集群 AI 加速卡规模已突破 2 万张,算 力达 6.7EFLOPS,传统基于电交换的 Super Spine 在横向扩展中逐 渐暴露性能、成本、扩展性的三重矛盾。未来大规模智算集群性能 问题,以智算中心场景为核心,推动 NPO/CPO 的应用落地,解决发 热、芯片良率等问题,同步验证 OIO 在 GPU 互连领域的应用效果。 对于光交换领域,在 OCS 方向,目前已经实现初步商业化。光 交换作为支撑超大规模 Scale-Out 架构的关键基础设施,在智能中 心中的应用前景十分乐观,短期来看,OCS 最有可能进行小范围的 试点应用,长期来看,光分组交换将具有更大的潜力。 云智算光互连发展报告 附录:
    20 积分 | 32 页 | 2.80 MB | 14 天前
    3
共 74 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 8
前往
页
相关搜索词
京东物流超大大规规模大规模超大规模仓储系统智能监控32智算产业发展研究报告2025天翼智库中心成为基建基本条件智慧时代动力力源动力源恩东年金操作操作系统AI创新融合实践电子元件电子元件供应供应链未来过剩平衡火山引擎一代新一代边缘解决方案解决方案16PPT6G中断网络设计白皮皮书白皮书中移年超节点华为中国信通面向集群场景互连技术年云智算光移动中国移动
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩