金融业AI大模型智算网络研究报告力+金融”加快算力在金融领域的创新应用,为金融业务发展提 供更为精准、高效的算力支持。 AI大模型智算网络技术是算力集群的重要基础底座,是新型 算力中的网络运载力,是助力大模型实现跨节点分布式训练,提 升大规模训练效率的重要支撑。 本文深入分析 AI 大模型技术在模型能力、结构、算力、效 率等方面的技术发展趋势,提出作为底座的智算网络所面临的新 问题和新挑战。围绕 AI 大模型智算网络“高性能连接、高效率 术方案。结合行业业务及技术发展方向,将金融业 AI 智算网建 设演进划分为打造底座、构建系统、完善生态 3 个阶段,并给出 了新技术发展及创新方向,为金融机构开展 AI 大模型智算网络 规划及建设提供参考。 关键词:大模型训练、智算网络、负载均衡、流控技术、拥 塞管理 IV 目 录 一、研究背景 ................................................. 1 (一)AI 大模型发展趋势及挑战 AI大模型算力变化趋势 四是模型效率持续优化。随着AI大模型的规模和复杂性增加, 训练效率面临严峻挑战。业界通过并行通信算法优化、模型算法 优化、混合精度训练优化等技术在训练框架层、通信算法层持续 提升AI模型训练的效率。随着技术的不断进步,未来必定会有更 多高效训练AI模型的方法出现。 AI大模型持续加速演进,其庞大的训练任务需要大量服务器 节点通过高速网络互联组成AI算力集群协同完成。但AI算力集群10 积分 | 33 页 | 1.70 MB | 2 天前3
未来网络发展大会:2025东数西算算网协同调度业务场景白皮书3 东数西存场景................................................................................ 35 4.4 协同训练场景................................................................................ 44 4.5 协同推理场景.. 本文的编制,是基于国家东数西算“安全新总线”项目所开展的 算网协同工程实践。深入分析“东数西算” 工程中的总分调度、分 总调度、混合调度的总体调度架构,东数西算、数据快递、东数西存、 协同推理、协同训练和西训东推等核心应用场景,以及边云一体、云 3 算分离和边缘共享等新型生态模式。同时,通过对典型应用场景的详 细的业务流程分析,力求为产业参与者提供可操作、可复制的交付参 考与决策依据,加速 复用,则可保留。这种灵活的处理方式旨在平衡资源利用与数据留存 的多元需求。 29 图 ● 4-10 东数西算-应用删除与数据清理 4.2 数据快递场景 4.2.1 场景描述 在智算大模型训练、超算科学计算与工程仿真等前沿领域,海量 数据集是驱动创新的关键要素。传统的数据传输方式,如机械化运载 海量硬盘甚至整个存储机柜,在效率、安全性和成本方面面临诸多挑 战。例如,运输过程易受物理环境影响,数据丢失或损坏风险高;运20 积分 | 118 页 | 8.35 MB | 2 天前3
2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告Deliberative Alignment ➢ 补充拓展:DeepSeek-V3 解读 3 DeepSeek-R1 开创RL加持下强推理慢思考范式新边界 ➢ OpenAI o1 开启后训练 Post-Training 时代下的RL新范式:后训练扩展律 Post-Training Scaling Law ➢ DS-R1 独立发现了一些通往o1路上的核心理念,并且效果还好到受到了OpenAI 的认可 ➢ 如何通过有效的 ➢ DeepSeek R1-Zero 和 R1的出现再次证明了强化学习的潜力所在: ➢ R1-Zero 从基础模型开始构建,完全依赖强化学习,而不使用人类专家标注的监督微调(SFT); ➢ 随着训练步骤增加,模型逐渐展现出长文本推理及长链推理能力; ➢ 随着推理路径增长,模型表现出自我修复和启发式搜索的能力; 4 DeepSeek-R1 开创RL加持下强推理慢思考范式新边界 ➢ 得益于强 回顾:Pre-Training Scaling Law ➢ Pre-Training Scaling Laws: 预训练模型上广泛观察到的现象,协调了计算量C、模 型参数量N和数据大小D之间的关系 6 回顾:Post-Training Scaling Law ➢ Post-Training 阶段,随着训练时计算量(来自RL的Training阶段)和 Test-Time 计算量 (例如Test-Time10 积分 | 76 页 | 8.39 MB | 6 月前3
未来网络发展大会:算力城域网白皮书(2025版)凤 青、张潇潇。 中关村超互联新基建产业创新联盟:袁博。 算力城域网白皮书(2025 版) I 前 言 2025 年初 DeepSeek 的爆火掀起了生成式人工智能的浪潮,带动 大模型训练成本和推理成本的快速下降,驱动算力需求爆炸式增长。 城域网络作为用户与算力资源间的关键桥梁,各类新兴算力业务对城 域网的网络架构、网络能力及服务模式等方面提出了新的要求。中国 电信在 2024 .................................. 26 7.2 存算分离拉远训练场景........................................................... 27 算力城域网白皮书(2025 版) III 7.3 跨集群协同训练场景............................................... 这意味国家将加强顶层设计,加快形成以人工智能为引擎的新质生产 力。随着这一行动的深入推进,人工智能将在推动产业升级、促进新 质生产力快速发展等方面发挥重要作用。 随着人工智能技术的快速发展,大模型训练对算力的需求呈指数 级增长,促进了运营商、政府、行业和企业进行算力中心的建设。各 类算力资源如何实现高效整合,服务于千行百业,进而实现算力的商 业闭环是业界普遍关心的话题。本白皮书针对算力发展新态势和算力20 积分 | 42 页 | 7.16 MB | 2 天前3
2024年汽车AI大模型TOP10分析报告战略规划 技术咨询 2 预训练语言模型 预 训 练 微 调 将模型在大规模无标注数据上进 行自监督训练得到预训练模型 将模型在下游各种自然语言处理任 务上的小规模有标注数据进行微调 得到适配模型 AI大模型就是预训练语言模型 通过在大规模宽泛的数据上进行训练后能适应一系列下游任务的模型 预训练语⾔模型“预训练 + 微调”技术范式 ⼤规模⽆标注 ⽂本数据 模型预训练 不同特定任务 有标注训练数据 有标注训练数据 模型微调 测试数据 最终模型 从海量数据中自动学习知识 Ø Big-data Driven,模型基于大规模语料训练而成; Ø Multi-tasks Adaptive,支持多种任务,包括自然 语言生成NLG和自然语言理解NLU类的任务; Ø Few-shot (Zero-shot),在少甚至无标注样本的 条件下支持推理(自监督学习)。 产业研究 战略规划 技术咨询 3 3 大模型发展历程 众多预训练模型相继涌现,OpenAI 以 GPT2、GPT-3、ChatGPT 等系列模型为代表,持续引领大模型时代的浪潮 Ø 2017 年,Google提出Transformer 框架在机器翻译中取得显著进步,其分布式学习和强大编码能力受到广泛关注。 Ø 2018 年 Google 和 OpenAI 基于Transformer 提出了预训练语言模型 BERT 和 GPT,显著提高了NLP10 积分 | 59 页 | 28.41 MB | 5 月前3
电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页大模型参数量级飞涨,相应训练集需同比提升。李开复定义 AI 2.0 时代的 特征是通过海量数据,无需标注自监督学习,训练一个基础大模型,并在各 领域将其专业化。据相关论文,当模型的参数量大于某阈值,会展现出类似 推理、无监督学习等未曾出现的能力,这种现象被称为“涌现”,因此目前 大语言模型参数均在十亿量级以上。同时,Deepmind 研究表明,模型参数的 上涨需要配合等比例上升的优质数据集来达到最佳训练效果。因此,大模型 参数在十亿级以上发展并受限于优质数据集的增速是 AI 发展的必然趋势。 大模型增长挑战芯片算力和内存,无法实现完整端侧部署。大模型训练和推 理的三大瓶颈是算力、显存和通信,根据我们的测算,算力方面 GPT-3 训练 所需算力为 121528 TFLOPS,若 30 天内完成,需要 1558 颗 A100。内存角度, GPT-3 训练至少需要 3.2T 内存,至少 44 张 A100,推理任务则主要受显存限 制,需要 4 至 8 张 百亿参数大模型具备涌现能力,训练数据需等比例提升 .............................. 5 大模型的参数下限:AI2.0 时代,基础大模型参数指数级增长 ................................ 5 大模型的参数上限:参数的增加需要同等量级的训练集增加 .................................. 6 大模型训练对硬件的挑战:算力、内存和通信0 积分 | 25 页 | 2.20 MB | 6 月前3
电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页大模型参数量级飞涨,相应训练集需同比提升。李开复定义 AI 2.0 时代的 特征是通过海量数据,无需标注自监督学习,训练一个基础大模型,并在各 领域将其专业化。据相关论文,当模型的参数量大于某阈值,会展现出类似 推理、无监督学习等未曾出现的能力,这种现象被称为“涌现”,因此目前 大语言模型参数均在十亿量级以上。同时,Deepmind 研究表明,模型参数的 上涨需要配合等比例上升的优质数据集来达到最佳训练效果。因此,大模型 参数在十亿级以上发展并受限于优质数据集的增速是 AI 发展的必然趋势。 大模型增长挑战芯片算力和内存,无法实现完整端侧部署。大模型训练和推 理的三大瓶颈是算力、显存和通信,根据我们的测算,算力方面 GPT-3 训练 所需算力为 121528 TFLOPS,若 30 天内完成,需要 1558 颗 A100。内存角度, GPT-3 训练至少需要 3.2T 内存,至少 44 张 A100,推理任务则主要受显存限 制,需要 4 至 8 张 百亿参数大模型具备涌现能力,训练数据需等比例提升 .............................. 5 大模型的参数下限:AI2.0 时代,基础大模型参数指数级增长 ................................ 5 大模型的参数上限:参数的增加需要同等量级的训练集增加 .................................. 6 大模型训练对硬件的挑战:算力、内存和通信10 积分 | 25 页 | 2.20 MB | 6 月前3
中国移动:云智算技术白皮书(2025).....................................13 2.5.2 训练框架 .....................................14 2.5.2.1 训练并行优化 .......................... 14 2.5.2.2 低精度训练 ............................ 14 2.5.2.3 故障容错 . 计算进入深水区:在算力方面,十万卡级超大规模 GPU 集群的异构算力需求已远 超现有资源池化的调度能力;在网络层面,AI 训练中 TB 级参数同步对时延极为 敏感,传统网络架构难以满足低时延、高吞吐的传输要求;在服务形态上,单一 的 IaaS/PaaS 服务无法全面覆盖数据处理、模型训练、推理部署等 AI 开发全链 路的需求,迫切需要构建适应智能时代的云计算新范式。 1.2 云智算的内涵 云智算 IaaS、PaaS、SaaS 三层拓展为 AI IaaS、AI PaaS、MaaS、AI SaaS 四层。一是 AI IaaS,即算网一 体化供给的基础设施服务,通过泛在网络推动东中西、云边端、通智超量、训练 推理等多类型算力“联算成网”,依托算网统一编排的算网大脑,实现算力的灵 活调度、即取即用。二是 AI PaaS,即面向各类 AI 开发者的工具平台服务,提 供覆盖 AI 研发、运营、测试等全环节的工具链和开发环境,显著提升全社会0 积分 | 30 页 | 716.31 KB | 5 月前3
从英伟达GTC看AI工厂的投资机会-华泰证券及(3)海康、 大华、商汤等相关公司在垂直行业布局。 芯片:新版 H100 提高训练速度 10 倍,国内在技术上仍有较大提升空间 目前,主流的 AI 训练一般采用英伟达的 A100 或 H100 芯片,这次大会上, 公司推出针对大模型优化过的新训练芯片 H100 NVL,和过去的 A100 相比, 训练速度提高 10 倍,成本降低一个数量级。目前,AI 推理上,一般采用 2018 年发布的 L40 推理性能是 T4 的 10 倍。受美国出口管制限制,中国 目前只能采购实测性能比 A100 低 1/3 的 A800,因此训练同一个体量的模 型,中国在成本及速度上存在 10 倍以上的差距。目前国内 AI 芯片厂商在推 理芯片已有一定市占率,但受 CUDA 等软件影响,训练芯片上差距仍较大。 从 GPU 到 AI 工厂,AI 计算会为整个服务器产业链带来增长 这次会上,英伟达重点展示了如何从单颗 语言模型)和生成式 AI,客户使用其专有数据进行训练,用于处理特定领域的任务,包括语 言、视觉和生物学模型制作服务。NVIDIA NeMo 用于构建定制的语言/文本转文本生成式模 型,Picasso 是一项视觉语言模型制作服务,BioNeMo 提供用于药物研发的生成式 AI 模型。 我们认为,ChatGPT 等应用引发对 AI 算力的需求,加速计算和生成式 AI 推理将带动训练 /推理芯片需求的爆发。0 积分 | 16 页 | 1.37 MB | 5 月前3
工业大模型应用报告.................................................................................. 11 3.1. 模式一:预训练工业大模型 ............................................................................................. Model)。我们认为,大模型主 要具备以下三大特征: 参数规模大:大模型的参数规模远大于传统深度学习模型。大模型发展呈现“规模 定律”(Scaling Law)特征,即:模型的性能与模型的规模、数据集大小和训练用的计 算量之间存在幂律关系,通俗而言就是“大力出奇迹”。不过“大”并没有一个绝对的标 准,而是一个相对概念。传统模型参数量通常在数万至数亿之间,大模型的参数量则 至少在亿级以上,并已发展到过万亿级的规模。如 1750 亿,GPT-4 非官方估计约达 1.8 万亿。 泛化能力强:大模型能够有效处理多种未见过的数据或新任务。基于注意力机制 (Attention),通过在大规模、多样化的无标注数据集上进行预训练,大模型能够学 习掌握丰富的通用知识和方法,从而在广泛的场景和任务中使用,例如文本生成、自 然语言理解、翻译、数学推导、逻辑推理和多轮对话等。大模型不需要、或者仅需少 量特定任务的数据样本,即可显著提高在新任务上的表现能力。如0 积分 | 34 页 | 4.98 MB | 5 月前3
共 381 条
- 1
- 2
- 3
- 4
- 5
- 6
- 39
