积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部研究报告(18)区域研究(18)

语言

全部中文(简体)(10)

格式

全部PDF文档 PDF(11)PPT文档 PPT(5)DOC文档 DOC(2)
 
本次搜索耗时 0.019 秒,为您找到相关结果约 18 个.
  • 全部
  • 研究报告
  • 区域研究
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • PPT文档 PPT
  • DOC文档 DOC
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 中国推理算力市场追踪报告,2025H1-沙利文

    1 中国推理算力 市场追踪报告,2025年H1 头豹研究院 弗若斯特沙利文咨询(中国) 2025年8月 2 关键发现  算力需求重心从训练转向推理,算力基础设施持续扩展与升级 AI算力消耗已从集中式训练转向大规模推理,带来前所未有的增量需 求。2025年被认为是算力爆发的元年,推理算力的需求将迎来井喷式 增长。推理算力的需求将在未来几年内远超训练算力。 01  2025年H1中国推理算力服务市场中,天翼云以【21 2025年H1中国推理算力服务市场中,天翼云以【21.4%】的市场份 额领先 中国日均Tokens消耗量从2024年初的1000亿增长到截至今年6月底,日 均Token消耗量突破30万亿,1年半时间增长了300多倍,这反映了中国 人工智能应用规模快速增长。天翼云息壤一体化智算服务平台率先完 成国产算力与DeepSeek-R1/V3系列大模型的深度适配优化,成为国内 首家实现DeepSeek模型全栈国产化推理服务落地的运营商级云平台。 02  未来推理算力长序列与超大模型推理优化成为关键,国产软硬件 协同与生态成熟推动推理普及 03 中国算力正朝着“训推一体”融合架构快速发展,以支撑大规模 模型与多模态应用的高效低延迟推理。国产AI芯片与推理框架不 断优化,结合模型压缩、量化、动态推理等技术,进一步提升能 效比和部署灵活性。 3 沙利文市场研读 | 2025/08 2 研究框架  中国推理算力市场综述 • 关键发现
    10 积分 | 12 页 | 1.12 MB | 3 小时前
    3
  • ppt文档 电子AI+系列专题:DeepSeek重塑开源大模型生态,AI应用爆发持续推升算力需求

    557.6 万美元, 对比 GPT-4o 等模型的训练成本约为 1 亿美元。 2025 年 1 月, DeepSeek-R1 发布,性能对标 OpenAI-o1 正式版。在数学、代码、 自然 语言推理等任务上,性能比肩 OpenAI-o1 正式版。 2 月 1 日消息,据彭博社报道, DeepSeek 的人工智能助手在 140 个市场下载次数最多的移动应用程序排行榜 上名列前茅。国外大型科技公司如微软、 DeepSeek-R1 模型。 2 月 1 日,华为云官方发布消息,硅基流动和华为 云团队联合首发并上线基于华为云昇腾云服务 的 DeepSeekR1/V3 推理服务。 l DeepSeek 通过 MLA 和 DeepSeekMoE 实现高效的推理和低成本训练,构建 DualPipe 算法和混合精度训练优化计算与通信负载;通过 ( 分阶段 ) 强化学习实现 性能突破。 多头潜在注意力 (MLA) DeepSeek-R1-Zero 通过强化学习架构创新实现突破性性能,核心技术创新体现在训 练效能优化策略、双维度评价体系、 结构化训练范式三个维度。 DeepSeek-R1 采用分阶段强化学习架构演进,包括冷启动阶段、面向推理的强化学习、拒绝采样 与监督式微调、全场景强化学习等。 l AI 应用爆发在即,算力需求持续攀升,关注 ASIC 及服务器产业链。 Scaling Law 与“涌现”能力是大模型训练遵循的重要法则,随着
    0 积分 | 38 页 | 1.95 MB | 6 月前
    3
  • pdf文档 电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页

    大模型参数量级飞涨,相应训练集需同比提升。李开复定义 AI 2.0 时代的 特征是通过海量数据,无需标注自监督学习,训练一个基础大模型,并在各 领域将其专业化。据相关论文,当模型的参数量大于某阈值,会展现出类似 推理、无监督学习等未曾出现的能力,这种现象被称为“涌现”,因此目前 大语言模型参数均在十亿量级以上。同时,Deepmind 研究表明,模型参数的 上涨需要配合等比例上升的优质数据集来达到最佳训练效果。因此,大模型 算力方面 GPT-3 训练 所需算力为 121528 TFLOPS,若 30 天内完成,需要 1558 颗 A100。内存角度, GPT-3 训练至少需要 3.2T 内存,至少 44 张 A100,推理任务则主要受显存限 制,需要 4 至 8 张 A100,因此完整的模型无法在终端上离线运行。 优化后大模型可在旗舰机型芯片上运行,AI 落地有望推动新一轮换机潮。 AI 部署本地化具有必要性,优势包括更低的延迟、更小的带宽、提高数据安 部署本地化具有必要性,优势包括更低的延迟、更小的带宽、提高数据安 全、保护数据隐私、高可靠性等。完整的大模型仅参数权重就占满一张 80G 的 GPU,但是通过量化、知识蒸馏、剪枝等优化,大模型可以在手机本地实 现推理。高通团队使用骁龙 8 Gen2 部署 Stable Diffusion,实现本地运营 15 秒出图,证明了大模型本地化运行的可能,也体现出目前手机芯片的局限 性。根据 IDC 数据,1Q23 全球手机销量中主处理器频率超过
    0 积分 | 25 页 | 2.20 MB | 6 月前
    3
  • pdf文档 2025年智能金融:AI+驱动的金融变革报告-浙江大学(郑小林)

    语料学习 DeepSeek-V3 DeepSeek-R1 DeepSeek-V3 跨节点专家并行 硬件协同优化 Grok-3 20万张卡 思维链推理 QWQ-32B 两阶段强化学习 Gemma-3 多模态推理融合 思维链推理 2018年图灵奖、深度机器学习 2024年图灵奖、强化学习 浙江大学人工智能教育教学研究中心 中心 智能教育教学研究中心 大学人工智能教育教学研究中心 浙江大学人工智能教 浙 DeepSeek-R1:监督微调+强化学习训练 DeepSeek-R1-Zero (强推理模型) 推理导向强化学习 (准确率奖励+格式奖励) 纯强化学习训练 低可控:生成文本可 读性差、语言混乱 高探索自由度 => 推理能力自我觉醒 (更长的思维链、更深层次的 推理路径) DeepSeek-V3 (基础模型) 监督微调 强化学习 图源自《ReFT: Reasoning 面向全场景的强化学习 (规则奖励+奖励模型) DeepSeek-R1 (强推理模型) 671B 第一阶段训练:增强推理能力,生成高质量推理数据 第二阶段训练:增强通用能力,避免灾难性遗忘 对V3模型 监督微调 推理导向强化学习 (准确率奖励+可读性奖励) R1-Zero生成的 长思维链数据 60万条 推理数据 20万条 通用数据 多阶段增强训练 拒绝采样:筛选高质量样本 R1蒸馏版
    10 积分 | 45 页 | 7.21 MB | 3 小时前
    3
  • ppt文档 电子AI+系列专题:复盘英伟达的AI发展之路

    GPU 通用型强,满足深度学习大量计算 的需求,因此 GPU 在训练负载中具有绝对优势。以 GPT-3 为例,在 32 位的单精度浮点数数据下,训练 阶段所需 GPU 数量为 1558 个,谷歌级应用推理阶段所 需 GPU 数量为 706315 个。 l 英伟达开辟 GPGPU 加速计算格局, GPU 架构演进及产品布局赋能 AI 时代。 英伟达 (NVIDIA) 成立于 1993 年,总部位于 变革初期就已参与并与 OpenAI 、微 软合作。 2023 年 3 月,英伟达在 GTC 大会上推出 4 个针对各种生成式 AI 应用程序进行优化的推理平台,其中发布带有双 GPU NVLink 的 H100 NVL 加速计算卡, 以支持 ChatGPT 类大型语言模型推理。与适用于 GPT-3 处理的 HGX A100 相比,配备四对 H100 与双 GPU NVLink 的标准服 务器的速度最高可达 10 数增长而线性增长,这种现象被称为 Scaling Law 。 但当模型的参数量大于一定程度的时候,模 型能力 会突然暴涨 ,模型会突然拥有一些突 变能力 ( Emergent Ability ),如推理能力、无 标注学习 能力等。例如 GPT 之前的大语言模型主 流是深度神 经网络驱动,参数在数十亿水平,而 ChatGPT 达到 1750 亿参数。 全球数据量及数据中心负载量大幅上涨
    0 积分 | 30 页 | 1.27 MB | 6 月前
    3
  • pdf文档 电子行业深度报告:DeepSeek推动模型平权,关注AI终端及算力领域

    5-Sonnet不分伯仲,训练成本约为558万美元。1月20日, DeepSeek开源R1模型,后训练阶段大规模使用了强化学习技术,在仅有 极少标注数据的情况下,性能比肩OpenAI o1正式版,不仅极大提升了 模型推理能力,也大幅降低了训练成本。同时,DeepSeek-R1蒸馏了6个 小模型,其中32B和70B模型在多项能力上实现对标OpenAI o1 mini。通 过推出高性能、低成本且开源的模型,DeepSeek给全球AI发展带来了模 ek给全球AI发展带来了模 型平权,同时也将刺激其他头部模型厂商加快推出性能更强、成本更具 竞争力的模型。而随着模型调用门槛降低,AI终端有望加速落地,而AI+ 快速发展也将反哺训练算力、推理算力需求。  AI终端有望加速落地。AI手机:苹果国行AI功能渐行渐近,三星国行S25 系列搭载智谱Agentic GLM,而华为、荣耀、OPPO等多家国产终端近期 亦官宣接入R1模型。群智咨询预计今年全球智能手机出货量同增4%。其 .. 7 图 7 :Grok 3 基准测试成绩 ............................................................ 7 图 8 :Grok 3 推理基准测试成绩 ........................................................ 7 图 9 :苹果近年营业收入 ...................
    0 积分 | 23 页 | 2.65 MB | 6 月前
    3
  • pdf文档 电子:DeepSeek-R1加速AI进程,看好AI应用端潜力释放

    日突破 3000 万大关,成为史上最快达成这一里程碑的应用。  革命性推理能力叠加出色性价比,DeepSeek-R1 模型引发全球关注。 据 DeepSeek 官网数据,DeepSeek-R1 在后训练阶段大规模使用了强化 学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力, 其在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式 版。并且,DeepSeek-R1 版。并且,DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借 助 R1 训练其他模型,进一步促进技术的开源和共享,用户可通过官 网或 App 调用 DeepSeek-R1 完成各类推理任务。此外,DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命 中),每百万输出 tokens 16 元,具备极高的性价比。据财联社 2 月 1 日消息,DeepSeek在 开源大模型,实现在多场景、多产品 中应用,针对热门的 DeepSeek-R1 模型提供专属算力方案和配套环境, 助力国产大模型性能释放。  投资建议:我们维持电子行业“领先大市”评级。1)推理侧发展有望 -6% 14% 34% 54% 74% 2024/02 2024/05 2024/08 2024/11 电子 沪深300 行业点评 电子 此报告仅供内部客户参考
    0 积分 | 4 页 | 269.47 KB | 6 月前
    3
  • pdf文档 电子行业:AI大模型需要什么样的硬件?-20240621-华泰证券-40页

    华泰观点:关注 AI 大模型 x 硬件的两条思路 从 22 年 11 月 OpenAI 推出 ChatGPT 至今,我们看到 Chatbot 应用的能力 不断增强,从最初的文字问答,迅速向具有自主记忆、推理、规划和执行的 全自动能力的 AI Agent 发展。我们认为端侧智能是大模型发展的重要分支。 建议投资人沿着:1)大模型如何赋能终端,2)终端如何解决大模型普及难 点两条思路,寻找硬件的落地机会。我们看好 点两条思路,寻找硬件的落地机会。我们看好 1)Apple Intelligence 推动苹 果用户换机,2)交互能力提升推动轻量级 AR 开始普及,3)隐私保护需求 推动办公用 PC AI 化等三大机会。 具备记忆、推理、规划、执行能力的 AI Agent 可能是大模型的最终形态 大模型的应用能力最初功能仅限于文字问答,此后逐渐引入图像理解、文生 图功能,并通过 GPT Store 拓展功能,形成了 AI Agent 雏形,近期 年 5 月 ChatGPT 的 PC+移动端独立访客数达到 3 亿,在全球所有网站中排名第 22。 我们认为大模型的演进方向是智能化和自动化程度逐渐提升,最终形态是 AI Agent,具有自主记忆、推理、规划和执行的全自动能力。 观点#1:Apple Intelligence 推动苹果用户换机,利好产业链业绩增长 6/11, 苹果 WWDC 2024 大会推出由苹果自研的端侧大模型、云端大模型、
    0 积分 | 40 页 | 2.60 MB | 6 月前
    3
  • ppt文档 金融垂类大模型试用体验【AI金融新纪元】系列报告(一)

    腾 讯混元大模型和蚂蚁金融大模型相继正式亮相。 2023 年 11 月 ,幻方量化旗下 DeepSeek 推出 DeepSeek LLM 67Bt ,相较于其他金融模型 拥有 更突出的推理、数学、编程等能力。 2024 年开年之初, 同花顺和东方财富分别推出问财 HithinkGPT 和妙想金融大模型, 内测火热进行中。 2. 金融垂类大模型赋能金融业务 ,推动行业业务实现增量提升。 对智能问答和智能投研场景进行了个性化的功能设计 ,提供数据查询、信息 搜索、事件解读、等数百种场景解决方案。 2 ) 高性能推理支撑场景需求。妙想金融大模型通过量化、模型算子优化等 措施极大提高了速度 ,结合 Paged Attention 、 Continuous Batching 、张 量并行推理等技术优化推理框架的性能 ,在金融场景下算力的利用率提高了 数倍。 3 ) 高品质金融数据供给。得益于东方财富二十载深耕 图表:东方财富妙想大模型功能模块 12 恒生电子 LihgtGPT 金融行业大模型,较通用大模型更专业、更合规、更轻量。 LightGPT 拥有更专业的金融语料积累处理和更高效稳定的 大模型训练方式。在金融专业问答、逻辑推理、超长文本处理能力、多模态交互能力、代码能力等在内的金融大模型能力评测中均有不错表 现,并保证内容和指令的合规安全,处于业内领先水平,可以为投顾、客服、投研、运营、风控、合规、研发等金融业务场景提供底层
    10 积分 | 25 页 | 1.60 MB | 3 小时前
    3
  • ppt文档 AI 金融大模型的两条技术路线【AI金融新纪元】系列报告(二)

    性的解决方案、高精度和合规性。劣势:适应性限制、更新和维护复杂度、数据利用率低。 2 )通用大模型通过金融语料训练超越金融垂类模 型 可能性较小。通用大模型在行业数据量 ,性价比 ,精确性、适用性、实时性、推理速度 ,合规性和风险控制等方面表现欠佳。 通用大模型“ 百模大战 ” , 头部模型国外领先较大 , 平均水平国内外差距较小 , 中文上国内表现更优。 1 ) 国外通用 GPT4-Turbo 遥遥领 。通用语言模型虽然可以通过金融语料的训练来提高在这方面的理解能力,但 是否能达到金融垂类大模型的专业性仍有待验证。 金融领域要求实时性和高效的推理速度。金融领域的决策和分析通常要求实时的响应和快速的推理速度。金融垂类大模型可能会针对这一 需求进行了优化,以提供更快的响应时间。通用语言大模型在处理金融领域的实时应用时可能需要进一步的优化。 金融领 AmazonCodeWhisperer 。 Tita n 系列模型分为用于内容生成 的文本模型 Titan text 和可创 建矢量 嵌 入 的 嵌 入 模 型 Titan Embeddings 。 此外 ,基 于自研推理和训练 AI 芯片 的最新实例 AmazonEC2Trn1n 和 Amazon EC2 Inf2 正式可用。 Anthropic 推出 Claude 最接近 ChatGPT 的商业竞 品 2023
    10 积分 | 26 页 | 1.36 MB | 3 小时前
    3
共 18 条
  • 1
  • 2
前往
页
相关搜索词
中国推理算力市场追踪报告2025H1利文沙利文电子AI系列专题DeepSeek重塑开源模型生态应用爆发持续推升需求行业电子行业边缘语言终端部署推动一轮新一轮20230531国信证券252025智能金融驱动变革浙江大学浙江大学小林复盘伟达发展深度平权关注及算力领域R1加速进程看好潜力释放需要什么什么样硬件20240621华泰40垂类试用体验纪元新纪元两条技术路线
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩