积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部研究报告(20)区域研究(20)

语言

全部中文(简体)(12)

格式

全部PDF文档 PDF(10)PPT文档 PPT(7)DOC文档 DOC(3)
 
本次搜索耗时 0.020 秒,为您找到相关结果约 20 个.
  • 全部
  • 研究报告
  • 区域研究
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • PPT文档 PPT
  • DOC文档 DOC
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页

    大模型参数量级飞涨,相应训练集需同比提升。李开复定义 AI 2.0 时代的 特征是通过海量数据,无需标注自监督学习,训练一个基础大模型,并在各 领域将其专业化。据相关论文,当模型的参数量大于某阈值,会展现出类似 推理、无监督学习等未曾出现的能力,这种现象被称为“涌现”,因此目前 大语言模型参数均在十亿量级以上。同时,Deepmind 研究表明,模型参数的 上涨需要配合等比例上升的优质数据集来达到最佳训练效果。因此,大模型 参数在十亿级以上发展并受限于优质数据集的增速是 AI 发展的必然趋势。 大模型增长挑战芯片算力和内存,无法实现完整端侧部署。大模型训练和推 理的三大瓶颈是算力、显存和通信,根据我们的测算,算力方面 GPT-3 训练 所需算力为 121528 TFLOPS,若 30 天内完成,需要 1558 颗 A100。内存角度, GPT-3 训练至少需要 3.2T 内存,至少 44 张 A100,推理任务则主要受显存限 制,需要 4 至 8 张 百亿参数大模型具备涌现能力,训练数据需等比例提升 .............................. 5 大模型的参数下限:AI2.0 时代,基础大模型参数指数级增长 ................................ 5 大模型的参数上限:参数的增加需要同等量级的训练集增加 .................................. 6 大模型训练对硬件的挑战:算力、内存和通信
    0 积分 | 25 页 | 2.20 MB | 6 月前
    3
  • ppt文档 电子AI+系列专题:DeepSeek重塑开源大模型生态,AI应用爆发持续推升算力需求

    通用人工智能 (AGI) 的创新型科技公司。 2024 年 12 月, DeepSeek-V3 发布,性能对齐海外领军闭源模型。据官方技术论文披露, V3 模型的总训练成本 为 557.6 万美元, 对比 GPT-4o 等模型的训练成本约为 1 亿美元。 2025 年 1 月, DeepSeek-R1 发布,性能对标 OpenAI-o1 正式版。在数学、代码、 自然 语言推理等任务上,性能比肩 云团队联合首发并上线基于华为云昇腾云服务 的 DeepSeekR1/V3 推理服务。 l DeepSeek 通过 MLA 和 DeepSeekMoE 实现高效的推理和低成本训练,构建 DualPipe 算法和混合精度训练优化计算与通信负载;通过 ( 分阶段 ) 强化学习实现 性能突破。 多头潜在注意力 (MLA) 通过低秩联合压缩技术,大幅削减了注意力键 (keys) 和值 (values) DualPipe 算法,通过优化计算与通信的重叠,有效减少了流水线中的空闲时间。采用 FP8 混合精 度训练技术,不仅极大地加快 了训练速度,还大幅降低了 GPU 内存的消耗。 DeepSeek-R1-Zero 通过强化学习架构创新实现突破性性能,核心技术创新体现在训 练效能优化策略、双维度评价体系、 结构化训练范式三个维度。 DeepSeek-R1 采用分阶段强化学习架构演进,包括冷启动阶段、面向推理的强化学习、拒绝采样
    0 积分 | 38 页 | 1.95 MB | 6 月前
    3
  • ppt文档 AI 金融大模型的两条技术路线【AI金融新纪元】系列报告(二)

    与金融的结合主要有两条技术路径:①通用模型 + 金融语料训练金融大模型 ,②金融垂类大模型。 1 )双方优劣具有相对性。通用大模 型 优势:泛用性强、灵活性和利用率高、可迁移性强。劣势:特定领域深度较浅、模型复杂、训练时间长;金融垂类模型优势:领域专业性、针 对 性的解决方案、高精度和合规性。劣势:适应性限制、更新和维护复杂度、数据利用率低。 2 )通用大模型通过金融语料训练超越金融垂类模 型 可能性较小。通用大模型在行业数据量 Grok ,模型通过 X 平台实时了解世界 , GrokV1.5 或于 2024 年 3 月发 布。 2 ) 国内通用百度先行 ,多家企 业推出相关产品。百度推出“文心大模型” ,是目前国内预训练大模型应用端生态最好的大模型之一; 阿里 发布通义千问 2.0 ,专业维度能力较 强; vivo 发布 BlueLM 大模型 ,应用的场景广泛;月之暗面发布 Moonshot 大模型, 目前位于第一梯 GPT 系列、文心一言、通义千问、腾讯混元以及科大讯飞表现较好。 金融垂类模型国外发展先行 ,国内成品问世。 1 ) 国外彭博 BloombergGPT 率先登场。 BloombergGPT 的混合训练方法使其模型在金融任务上 的表 现大大超过了现有的大语言模型 ,而在通用场景上的表现则与之相当 ,甚至优于现有模型。 AI4Finance Foundation 开发 FinGPT ,为金融大
    10 积分 | 26 页 | 1.36 MB | 16 小时前
    3
  • pdf文档 中国推理算力市场追踪报告,2025H1-沙利文

    头豹研究院 弗若斯特沙利文咨询(中国) 2025年8月 2 关键发现  算力需求重心从训练转向推理,算力基础设施持续扩展与升级 AI算力消耗已从集中式训练转向大规模推理,带来前所未有的增量需 求。2025年被认为是算力爆发的元年,推理算力的需求将迎来井喷式 增长。推理算力的需求将在未来几年内远超训练算力。 01  2025年H1中国推理算力服务市场中,天翼云以【21.4%】的市场份 额领先 进一步提升能 效比和部署灵活性。 3 沙利文市场研读 | 2025/08 2 研究框架  中国推理算力市场综述 • 关键发现 • 中国推理算力定义及服务覆盖范围 • 算力需求重心从训练转向推理 • 中国推理算力市场规模分析 • 中国推理算力竞争格局分析 • 中国推理算力核心技术分析 • 中国推理算力相关政策分析 • 中国推理算力发展趋势分析 • 中国推理算力未来挑战分析 推理算力主要负责AI模型的推理任务,主要用于处理和执行已经训练好的模型进行实 际应用。这包括执行推理任务、处理实时数据和提供预测结果。推理过程通常对计算 资源需要快速响应,对实时性要求较高。 市场研读 2025/08 中国:云服务系列  推理是指利用训练好的大模型, 使用新数据推理出各种结论。
    10 积分 | 12 页 | 1.12 MB | 16 小时前
    3
  • pdf文档 2025年智能金融:AI+驱动的金融变革报告-浙江大学(郑小林)

    大学人工智能教育教学研究中心 浙江大学人工智能教育教学研究中心 浙江大学人工智能教育教学研究中心 浙江大学人工智能教育教学研 浙江大学人工智能教 浙 统计语言模型 (SLM) 神经语言模型 (NLM) 预训练语言模 型(PLM) 大语言模型 (LLM) Seq2Seq建模 基于循环神经网络RNN描述单 词序列的概率 • 优点:通过词嵌入和隐 藏层,上下文捕捉和泛 化能力较强; • 缺点:计算复杂度高, 随着n的增大,参数空 间呈指数增长 “预训练-微调” 学习范式 (BERT、GPT) 上下文学习、指令微调、 扩展规律 (GPT3、GPT4…) 基于Transformer架构的语言模型 • 优点: ✓ 长距离依赖处理能力强:自注意力机制能捕捉任 意距离的依赖关系。 ✓ 并行计算能力强:Transformer架构支持并行计算, 训练速度更快。 • 缺点:资源消耗大 自然语言处理模型的演进 浙江大学人工智能教育教学研究中心 浙江大学人工智能教育教学研 浙江大学人工智能教 浙 DeepSeek-R1:监督微调+强化学习训练 DeepSeek-R1-Zero (强推理模型) 推理导向强化学习 (准确率奖励+格式奖励) 纯强化学习训练 低可控:生成文本可 读性差、语言混乱 高探索自由度 => 推理能力自我觉醒 (更长的思维链、更深层次的 推理路径) DeepSeek-V3
    10 积分 | 45 页 | 7.21 MB | 16 小时前
    3
  • ppt文档 电子AI+系列专题:复盘英伟达的AI发展之路

    S0980522090001 l GPU 是人工智能时代下满足深度学习大量计算需求的核心 AI 芯片。 过去五年,大型语言模型的参数规模以指数级增长;从 2018 年起, OpenAI 开始发布生成式预训练语言模型 GPT 以来, GPT 更新换代持续提升模型 及参数规 模; 2022 年 12 月, OpenAI 发布基于 GPT-3.5 的聊天机器人模型 ChatGPT ,参数量达到 1750 亿个。 亿元增长至 2024 年的 785 亿元,对应 CAGR 达 45.11% 。 AI 芯片中 由于 GPU 通用型强,满足深度学习大量计算 的需求,因此 GPU 在训练负载中具有绝对优势。以 GPT-3 为例,在 32 位的单精度浮点数数据下,训练 阶段所需 GPU 数量为 1558 个,谷歌级应用推理阶段所 需 GPU 数量为 706315 个。 l 英伟达开辟 GPGPU 加速计算格局, GPU 566.7 万个,对应 CAGR 达 18.60% ;其中,云数据中心负载任务量 CAGR 预计达 22% 。 l 以模型中的参数数量衡量,大型语言模型的参数 在过去五年中以指数级增长。随着参数量和训练 数据量的增大,语言模型的能力会随着参数量的指 数增长而线性增长,这种现象被称为 Scaling Law 。 但当模型的参数量大于一定程度的时候,模 型能力 会突然暴涨 ,模型会突然拥有一些突
    0 积分 | 30 页 | 1.27 MB | 6 月前
    3
  • ppt文档 金融垂类大模型试用体验【AI金融新纪元】系列报告(一)

    )行业竞争加剧; 3 )权益市场大幅波动。 发布机构 金融垂类模型 共同优势 突出优势 同花顺 问财 HithinkGPT 、 AIFinD 实时性较强,且 能精准溯源 金融领域数据覆 盖面广 模型训练创新优化 东方财富 妙想金融大模型 高品质金融数据供给 恒生电子 LightGPT (升级) + WarrenQ+ 光 子 / 轻量化 幻方量化 DeepSeek LLM 67Bt 市场上公开的金融数据 ,预训练金融语料达到万亿级 tokens , 同时 拥有一套自动化的流程 ,用于数据获取、清洗以及数据质量的验证, 每月可新增数千亿 tokens 优质预训练数据以及数十万条优质微调数据, 确保数据的实时性和准确性。 2 )模型训练创新优化。构建了包括数据配比实验方案、 scaling law 实验体系、模型架构优化、分布式训练框架优化、硬件加速技术等 科学高效的大模型训练体系, 能以更低的训练成本高效地完成 能以更低的训练成本高效地完成 HithinkGPT 大模型家族( 7B 、 13B 、 30B 、 70B 和 130B )的训练。 3 ) 实时性较强。 AiFinD 中先进大模型叠加 iFinD 平台自身拥有的 金融数据库以及各类实时信息 ,使 AiFinD 中大模型可以通过对话指 令获取实时数据和信息 ,并注明来源 ,相较于其他大模型具有更强 的实时性和真实性。 1. AiFinD
    10 积分 | 25 页 | 1.60 MB | 16 小时前
    3
  • word文档 金融行业银行客户经理基于DeepSeek构建AI Agent智能体应用方案(237页 WORD)

    1.2 DeepSeek AI 大模型的优势与应用潜力 DeepSeek AI 大模型作为国内领先的生成式人工智能技术,在 金融领域展现出显著的技术优势与应用潜力。其核心能力建立在千 亿级参数训练基础上,通过融合金融行业知识图谱与银行业务数据 微调,具备精准的语义理解、多轮对话管理和复杂业务逻辑推理能 力。在银行客户经理场景中,该模型展现出三大差异化优势: 首先,在服务效率维度,DeepSeek 景。具体价值实现路径包括: 实际部署数据表明,在试点分行的财富管理场景中,AI 智能体 使 AUM(资产管理规模)同比增长 27%,客户满意度 NPS 值提升 15 个点。模型特有的持续进化能力,通过每月增量训练可使业务 指标保持 3-5%的环比改善。这种技术特性使其特别适合应对银行 业务快速迭代的需求,为数字化转型提供可扩展的智能底座。 1.3 项目目标:构建智能客户经理替代方案 在当前银行业数字化转型的浪潮下,传统客户经理模式面临人 多场 景的智能服务闭环。该模块需实现以下核心能力: 精准意图识别与路由 通过多轮对话引擎解析客户输入的语 义,结合上下文识别客户真实需求,准确率需达到 92%以上(基于 银行现有客服工单数据训练)。典型场景包括:  产品咨询:存款利率、贷款条件、信用卡权益等结构化数据查 询  业务办理:账户开立、转账限额调整等流程指引  投诉处理:自动识别投诉等级并触发相应处置流程 动态知识库调用
    10 积分 | 247 页 | 2.05 MB | 16 小时前
    3
  • pdf文档 电子行业深度报告:DeepSeek推动模型平权,关注AI终端及算力领域

    , 并 在 性 能 上 和 GPT-4o 以 及 Claude-3.5-Sonnet不分伯仲,训练成本约为558万美元。1月20日, DeepSeek开源R1模型,后训练阶段大规模使用了强化学习技术,在仅有 极少标注数据的情况下,性能比肩OpenAI o1正式版,不仅极大提升了 模型推理能力,也大幅降低了训练成本。同时,DeepSeek-R1蒸馏了6个 小模型,其中32B和70B模型在多项能力上实现对标OpenAI 过推出高性能、低成本且开源的模型,DeepSeek给全球AI发展带来了模 型平权,同时也将刺激其他头部模型厂商加快推出性能更强、成本更具 竞争力的模型。而随着模型调用门槛降低,AI终端有望加速落地,而AI+ 快速发展也将反哺训练算力、推理算力需求。  AI终端有望加速落地。AI手机:苹果国行AI功能渐行渐近,三星国行S25 系列搭载智谱Agentic GLM,而华为、荣耀、OPPO等多家国产终端近期 亦官宣接入R1模型 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,并在性能上和 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲,训练成本仅约为 558 万美元。1 月 20 日,DeepSeek 开源 R1 模型,后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下, 极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
    0 积分 | 23 页 | 2.65 MB | 6 月前
    3
  • pdf文档 电子行业:AI大模型需要什么样的硬件?-20240621-华泰证券-40页

    Brilliant Monocle ChatGPT 语音助手 Ray-Ban Meta Meta AI AI助理 场景识别 翻译 李未可Meta Lens S3 大语言模型AI系统 语音助手 翻译/口语训练 行程安排 MYVU Flyme AI(基于开源模型) 语音助手 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。 13 电子 大模型应用#2:生产力工具的 AI 升 级了 Issac 机器人平台,从训练、仿真、推理三方面赋能机器人行业发展。在自动驾驶方面, 英伟达同样也推出了 Drive 平台。 1) 训练平台:用于训练机器人的基础模型。包含英伟达推出的“Project GR00T”人形机 器人通用模型、以及其他主流的 VLM/LLM 等生成式 AI 通用基础模型,可以在此基础 上进行感知、决策、规控等方面训练和强化学习。 2) 仿真平台:在 Omniverse Foundations;国内,阿里、百度、字节跳动、腾讯等公司均推出了基于自有云服务 的 MaaS 模式,商汤等公司也推出了基于自有 AIDC 和大模型能力的 MaaS 服务。其中, 大模型的来源包括厂商自身训练的闭源模型和开源模型,以及第三方开源模型。以微软 Azure 为例,用户可选择 OpenAI 的闭源模型,微软自己的开源模型 Phi 系列,以及 Llama 等第三方开源模型。 图表23: 大模型服务(Model
    0 积分 | 40 页 | 2.60 MB | 6 月前
    3
共 20 条
  • 1
  • 2
前往
页
相关搜索词
电子行业电子行业AI系列专题边缘语言模型终端部署推动一轮新一轮需求20230531国信证券25DeepSeek重塑开源生态应用爆发持续推升算力金融两条技术路线纪元新纪元报告中国推理市场追踪2025H1利文沙利文2025智能驱动变革浙江大学浙江大学小林复盘伟达发展垂类试用体验银行客户经理客户经理基于构建Agent方案237WORD深度平权关注及算力领域需要什么什么样硬件20240621华泰40
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩