积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部人工智能(66)行业赋能(66)

语言

全部中文(简体)(65)

格式

全部DOC文档 DOC(27)PPT文档 PPT(20)PDF文档 PDF(19)
 
本次搜索耗时 0.030 秒,为您找到相关结果约 66 个.
  • 全部
  • 人工智能
  • 行业赋能
  • 全部
  • 中文(简体)
  • 全部
  • DOC文档 DOC
  • PPT文档 PPT
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 运营商智算中心建设思路及方案

    的快速成熟,其参数规模呈百万倍增长,随之而来的 是算力需求的剧增,芯片算力的增长速度与模型参数 规模的增长存在剪刀差,推动了超大规模智算集群的 建设。 作为基础设施建设者和新质生产力的推动者,电 信运营商正积极推进智算布局。本文基于大模型的 发展趋势和需求,结合运营商的特定优势,提出了智 算集群布局以及算力、存储、网络和维护管理方面的 关键词: 人工智能;智算中心;基础设施;建设思路 doi:10.12045/j 越大,有预测认为,到 2026年文本数据将被训练完,图 像数据将在 2040年前后被用完,合成数据将会是未来 数据的主要来源 [6],数据量规模会再一次量级跃迁,对 存储的规模和性能带来更大的挑战。此外,智算集群 的规模也从百卡发展到万卡,甚至十万卡级别,对网 络通信的带宽和时延要求越来越高。 1.2 算力需求和挑战 在 Transformer 模型结构中,算力需求与模型参数 规模、数据量具有相关性,具体如表1所示。 B×300 B= 314 000 EFLOPS。若采用 910B(376 TFLOPS@FP16) 集群,按照 GPU 利用率为 30%,训练 28 天,则需要约 1 150张910B GPU卡。 按照上述测算,对于万亿参数模型,则需要万卡 级规模集群;对于十万亿参数模型,则需要十万卡级 规模集群。因此,为了实现通用人工智能 AGI,国内外 互联网厂商纷纷开始“囤卡”。在算力需求倍增的同 时,带来如下挑战。
    10 积分 | 6 页 | 3.64 MB | 3 月前
    3
  • pdf文档 智算无界:AIDC的超越和重构-上海贝尔

    技术加速创新,成为各国抢占科技革命与产业革命 优势地位的技术制高点。2024年3月,中国政府工作报告提出:“深化大数据、人工智能等研发应用,开展 ‘人工智能+’行动,打造具有国际竞争力的数字产业集群“。人工智能将在推动产业升级、促进新质生产 力加快形成等方面发挥重要作用。2025年1月,美国政府宣布OpenAI、软银和甲骨文三家企业将在美国建设 支持AI发展的基础设施,即“星际之门”。该项 算力基础设施高速发展,而以支持AI/LLM为目标构建的新型智算 中心成为数字新基建的重要底座。 趋势洞察 01 图1-1 生成式人工智能市场 趋势洞察 02 随着大模型训练参数以及GPU集群规模的不断提升,智算中心网络组网规模持续扩展,接入速率从 200Gbps升级至400Gbps/800Gbps乃至1.6Tbps,无损、低时延性能要求严格,推动智算中心网络以及智 算中心间跨区域网 动算 力供应链自主化。高效的算法一方面减缓了AI训练的算力需求,另一方面AI应用的普及导致AI训练与推理的 侧重点发生转变,预计未来几年推理算力占比将远超训练部分。 1.2 技术破局:从GPU集群到分布式协同一体 建设和运营智算中心需要巨大的资本投入,包括购买昂贵的AI芯片、建设高密度机房等。AI工作负载对 网络带宽和存储性能有极高的要求。AIDC需要优化网络架构,例如采用高吞吐量的以太网或InfiniBand,并
    10 积分 | 38 页 | 9.31 MB | 2 月前
    3
  • pdf文档 智能算网_AI Fabric2_0_研究报告-中国信通院&华为

    因此,要提升数据中心算力服务能力,就必须进一步提升数据中心网络性能。根据 《中国综合算力指数(2024年)》报告,计算、存储和网络是算力最重要的组成 部分,在数字经济发展新时期,需要更加关注构建集群算力、存力和运力于一体的 数据中心。 4 2.2 通算数据中心网络发展趋势与挑战 根据中国人民银行发布的金融行业标准《金融数据中心容灾建设指引》(JR/T 0264—2024),通用计算网 Opus通过混合推断模式实现“快速响应”与“深度反 思”的动态平衡。 模型摸高驱动集群规模走向10万卡,代际快速演进: 北美头部互联网客户在智算领域 的投资保持60%增速,例如Meta在2025年持续扩大英伟达H100 GPU集群,规模超35万 卡,网络代际向800GE快速演进;“星际之门”总投资超1150亿美元,2025年底建设超 6 30万卡GB200集群。国内客户也在积极跟进,例如字节2025年在智算领域投资1600亿 Cache访问流量、存储访问流量等多种流量类型在同一网络中并存,且流量模式具有明 显的突发性和不可预测性。同时,推理部署形态也发生革新,PD分离, Attn-FFN分离等新 架构模式相继涌现,有效优化资源利用效率,进一步推动推理集群化部署。 3)普惠AI与终端革命:应用AI化,要求高性能、低时延的网络 AI技术正从“奢侈品”变为“基础设施”,带动产业AI升级,并深度融入终端设备。 产业AI升级,对性能要求更高:以金融为例,风控策略从之前的静态模型+动态策略升
    10 积分 | 50 页 | 2.72 MB | 22 天前
    3
  • ppt文档 北斗时空(上海)智算中心项目方案(44页 PPT)

    文生图、 文生视频、生信计 算; 应用场景 电信联通移动三家 运营商高速网络接 入,支持数千节点 互联,配备高速无 阻塞网络协议,支 持通用大模型和行 业大模型开展万亿 参数、万卡集群训 练; 整体架构 采用国产信创算力 服务器与 N 系列 算力服务器异构融 合设计方案,支持 部署万卡级别的混 训混推; AI 算力资源池容 量最少可部署 20000 卡,为感 、推理 AI 、物 理 AI 等各阶段人 工智能应用场景提 供稳定的算力资源 支撑; 完备的多租户服务 运营能力,用户隔 离,保证数据安全。 提升集群效率,支 持大集群资源管理 与调度,支持上万 节点异构集群管理。 智算中心——设计理念 支持单次读取 TB 级以上海量文件, 配备高性能高并发 多级存储; 运营管理 存储环境 AI 算 力 机房等级 Uptime DOS 漏洞扫 描 网络接入: I DC 带宽 BGP 接 入 机房专 线接入服 务 IP 地址 服务 内部网络支 持 RoC E 和 IB 两种 部署方式, 可开展万卡 互联集群组 网 双路由配置 , 带宽冗余, 避免单点、 单链路故障 至表运首商裸太网 网络时延水无 1.5ms 园因无双语由分别进双运营商接双间 客户需求明 确后 3 - 7 天调整部署 到位
    10 积分 | 44 页 | 26.70 MB | 3 月前
    3
  • word文档 金融银行业务接入DeepSeek AI大模型智能体建设方案(304页 WORD)

    70%时自动转人工坐席,并推 送 实时告警至运维中台,确保业务连续性 SLA ≥99.9% 。 成本与效能需求 - 硬件成本控制在单节点年运维费用≤15 万元,支持横向扩展至 100 节点集群。 - 智能体需降低 30%以上的人工坐席咨询量,单次交互成本需比 传 统 IVR 降低 50%。 以上需求需通过 POC 验证关键指标,并在灰度发布阶段完成 压力测试和合规审查。 或Flink 实现事件驱动,确保数 据从接入到推理的全链路延迟可控。  模型优化:通过量化压缩、缓存热点数据降低推理耗时,同 时定期用生产数据回测验证模型漂移。  容错机制:部署双活集群与降级策略,在系统超时或异常时 自动切换至规则引擎,保证服务连续性。 实际落地中需平衡实时与准确性的冲突。例如,在实时反洗钱 场景中,可设计分级响应机制:初步筛查(<100ms)拦截高风险 交易,异步启动深度分析(≤2s tokens)时会出现显存占 用线性增长,建议通过动态分块机制解决。 2. 硬件资源配置方案 o 生产环境部署 :每节点配置 4×A100 80G 显卡,支持 FP16 精度推理,建议部署 Kubernetes 集群实现弹性扩 缩容 o 内存需求 :每个实例需预留 10GB 系统内存用于预处 理/后处理流水线 o 网络带宽 :在 RAG 场景下需保证至少 5Gbps 的向量数 据库访问带宽
    10 积分 | 313 页 | 3.03 MB | 3 月前
    3
  • word文档 自动智慧运维管理平台技术方案(115页 WORD)

    ...............................................................................46 2.4.5.4. Oracle 集群管理.............................................................................................49 2 存储管理,包括对存储设备(磁盘阵列、光纤交换机等)的设备状态、性能管理,以及 ഀ� 各个磁盘、控制器的状态监管,并提供存储容量分析策略,实现主动分析,透明化监控;  虚拟化管理,包括对虚拟机中心、文件夹、数据中心、集群、宿主机、资源池、vApp 等 资源的全面管理和资源性能的智维分析。  机房管理,包括对温湿度探针、UPS 设备、空调设备、门禁、烟感、水浸、摄像头、机 柜等机房设备管理,提供机房的综合展现。 特征, 联合进程分析,进一步定位造成这两个问题的具体业务进程,为用户解决系统问题提供有数据、 有结论的原因定位; 系统对于数据存储的核心性能问题“内核延迟”“设备延迟”做了专项分析,另外对于集群、宿主 机、虚拟机、数据存储的 24 个关键性能指标提供自动分析,当发现异常越界比例过高时,系统会 主动以专题性分析报告的方式告知用户,列出历史分析数据,便于用户更深入了解问题本质 ,同 时
    110 积分 | 75 页 | 36.47 MB | 3 月前
    3
  • word文档 基于DeepSeek AI大模型量化交易可信数据空间设计方案(249页 WORD)

    1.2-1.8 2.0-3.5(顶级对冲基金数据) 最大回撤控制 依赖 VaR 模型 基于强化学习的动态止损 策略生命周期 6-12 个月 3-6 个月(自适应性延长) 计算资源消耗 CPU 集群即可 需配备 GPU/TPU 加速 在实盘部署方面,AI 量化交易需要特别设计以下基础设施:  异构计算架构:使用 Kubernetes 编排 CPU/GPU 混合计算资 源  低延迟数据管道:Apache 存储空间利用率预警(超过 85%阈值报警) 数据版本管理采用 Git-LFS 方案,每次策略回测时自动关联数 据快照(含 SHA-256 校验码),确保实验结果可复现。对于高频 交易场景,额外部署内存数据库集群(如 RedisTimeSeries),实 现纳秒级延迟的实时指标计算。所有数据处理操作均记录审计日 志,满足 FINRA 合规要求。 4.1 数据采集与存储 在 AI 量化交易系统中,数据采集与存储是构建可靠策略的基 完整性校验 字段非空检查 100%字段完 整 合理性校验 价格波动范围检 测 ±3 个标准差 原始数据存储采用混合架构设计,冷热数据分离处理: 关键存储参数配置: 1. Kafka 集群保留周期: o 行情数据:7 天滚动存储 o 订单数据:30 天持久化 2. Redis 存储策略: o 高频行情:TTL=24 小时 o 指标缓存:LRU 自动淘汰 3. HDFS 存储规范:
    10 积分 | 261 页 | 1.65 MB | 22 天前
    3
  • word文档 保险行业理赔业务基于DeepSeek AI大模型应用设计方案(281页 WORD)

    GPU 设备,同时结合流水线 并行(Pipeline Parallelism)划分网络层到不同计算节点,显著提 升训练效率。例如,在理赔案件文本分析任务中,模型可在 128 块 A100 GPU 集群上实现每小时 2.5PB 的数据吞吐量。 模型的核心组件包含以下模块:  多模态编码器:通过共享嵌入空间将理赔单据图像、医疗报告 文本、客户语音记录等异构数据统一表征,其中视觉模态采用 ViT 务痛点、技术适配性和落地路径展开。以下为具体实施框架: 核心架构设计 采用混合部署模式,将大模型能力嵌入现有理 赔系统流程。前端通过 API 网关对接客户提交的理赔材料(如医疗 报告、事故照片等),后端部署 DeepSeek 模型集群,支持多模态 输入解析。关键组件包括: - 智能预处理模块:自动分类材料完整 性,识别缺失项(如发票缺失、诊断书模糊等) - 欺诈检测引擎: 通过历史赔付数据训练的风险评分模型,输出欺诈概率值 果与第三方评估工具(如 Mitchell)进行比对 运维监控体系 部署以下监控指标确保系统稳定性: 成本效益分析 以年处理 100 万件理赔案例的保险公司为例: - 初期投入:GPU 服务器集群(约¥2.8M)+ 系统改造(¥1.2M ) - 年节省成本:减少 150 名查勘员人力成本(约¥45M ) - ROI 周 期:预计 11 个月实现盈亏平衡 ” 实施阶段建议采用 试点-迭代-
    20 积分 | 295 页 | 1.87 MB | 3 月前
    3
  • pdf文档 AI改变能源:智算如何引领新型电力系统

    尤其是在中国电力增量中所占的比重。我们假设中国智算中心 2030 年的目标是 达到世界先进水平,之后所消耗的能源以绿色和洁净电力为主,在各行业中率 先实现净零碳排放。在国家东数西算以及八大枢纽和十大集群的总体布局下, 我们进一步分析各省的智算能力和清洁电力资源的现状及未来,将如何在支持 国家人工智能发展大计的同时,推动本地的经济数字化与智能化。与此同时, 我们关注到智算在各地爆发式增长给电力系统以及控制碳排放带来的短期挑战, 元等,以及服务器间的存储服务器、网络交换机、CPU 节点、光纤收发器和许多 其他设备。 因此,要在智算中心驱动一张 GPU 芯片,实际需要额外消耗近 1 倍的电力。根据 英伟达提供的数据中心解决方案,在典型配置的智算集群中,每运行一个 H100 需要 1389W 的 EAP(预期平均功率),而 H100 的 TDP(热设计功率)为 700W。 智算中心为这些关键 IT 设备提供的冷却与照明同样需要消耗电力。中国要求新 从区域碳排因子的分布上看,中国西部地区水电、光伏及风力发电等资源丰富, 具备发展绿色智算中心、承接东部算力需求的潜力。智算中心的建设,应当充 分利用不同区位的清洁电力。国家的东数西算项目提出了八大枢纽与十大集群 建设规划,其中八大枢纽分别为西部的内蒙古枢纽、宁夏枢纽、甘肃枢纽、成 渝枢纽、贵州枢纽,和东部的京津冀枢纽、长三角枢纽和粤港澳枢纽。 2030 年清洁电力发电量预测 如果中国绿色电力(不包括核电)按
    10 积分 | 25 页 | 709.89 KB | 9 月前
    3
  • pdf文档 AI改变能源-智算如何引领新型电力系统

    尤其是在中国电力增量中所占的比重。我们假设中国智算中心 2030 年的目标 是达到世界先进水平,之后所消耗的能源以绿色和洁净电力为主,在各行业中 率先实现净零碳排放。在国家东数西算以及八大枢纽和十大集群的总体布局下, 我们进一步分析各省的智算能力和清洁电力资源的现状及未来,将如何在支持 国家人工智能发展大计的同时,推动本地的经济数字化与智能化。与此同时, 我们关注到智算在各地爆发式增长给电力系统以及控制碳排放带来的短期挑战, 单元等,以及服务器间的存储服务器、网络交换机、CPU 节点、光纤收发器和 许多其他设备。 因此,要在智算中心驱动一张 GPU 芯片,实际需要额外消耗近 1 倍的电力。 根据英伟达提供的数据中心解决方案,在典型配置的智算集群中,每运行一个 H100 需要 1389W 的 EAP(预期平均功率),而 H100 的 TDP(热设计功率) 为 700W。 智算中心为这些关键 IT 设备提供的冷却与照明同样需要消耗电力。中国要求新 从区域碳排因子的分布上看,中国西部地区水电、光伏及风力发电等资源丰富, 具备发展绿色智算中心、承接东部算力需求的潜力。智算中心的建设,应当充 分利用不同区位的清洁电力。国家的东数西算项目提出了八大枢纽与十大集群 建设规划,其中八大枢纽分别为西部的内蒙古枢纽、宁夏枢纽、甘肃枢纽、成 渝枢纽、贵州枢纽,和东部的京津冀枢纽、长三角枢纽和粤港澳枢纽。 2030 年清洁电力发电量预测 如果中国绿色电力(不包括核电)按
    10 积分 | 25 页 | 497.14 KB | 9 月前
    3
共 66 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
前往
页
相关搜索词
运营营商运营商智算中心建设思路方案无界AIDC超越重构上海海贝贝尔上海贝尔智能算网AIFabric2研究报告中国信通华为北斗时空项目44PPT金融银行行业业务银行业银行业务接入DeepSeek模型304WORD自动智慧运维管理平台技术115基于量化交易可信数据空间设计空间设计249保险保险行业理赔应用设计方案281改变能源如何引领新型电力力系系统电力系统
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 - 2026 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩