积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部人工智能(3)技术工具(3)

语言

全部中文(简体)(3)

格式

全部PDF文档 PDF(2)PPT文档 PPT(1)
 
本次搜索耗时 0.010 秒,为您找到相关结果约 3 个.
  • 全部
  • 人工智能
  • 技术工具
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • PPT文档 PPT
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告

    技术剖析:DeepSeek-R1 Zero DeepSeek-R1 Zero: 无需监督微调SFT,纯强化学习驱动的强推理模型 DeepSeek-v3-Base (671B) DeepSeek-R1-Zero 基于规则的奖励 Rule-Based Reward 推理为中心的大规模强化学习 Large-Scale Reasoning-Oriented RL 大规模推理为中心的强化学习,提升模型数学代码能力 RL驱动下自然涌现长文本推理能力 技术剖析:DeepSeek-R1 Zero DeepSeek-R1 Zero: 无需监督微调SFT,纯强化学习驱动的强推理模型 ➢ 奖励建模:基于规则的奖励 (Rule-Based Reward) : 准确率奖励 + 格式奖励 ➢ 准确率奖励 Accuracy Rewards: 判断答案是否是正确的 ➢ 格式奖励Format Rewards: 规劝模型生成答案的过程是 和 ➢ 没有使用Reward model 需要大量的计算资源,可能会复杂化整个流程 ➢ 训练模板:选择最简单的 Thinking Process,直接观察到最直接的RL过程下的表现 基于规则的奖励 (Rule-Based Reward) : 准确率奖励 + 格式奖励 10 DeepSeek-R1 技术剖析:DeepSeek-R1 Zero DeepSeek-R1 Zero: 无需监督微调SFT,纯强化学习驱动的强推理模型
    10 积分 | 76 页 | 8.39 MB | 9 月前
    3
  • ppt文档 山东大学:DeepSeek 应用与部署

    Relative Policy Optimization 强化学习让智能体( Agent )在环境 ( Environment )中不断尝试、学习 ,并优化自己 的策略( Policy ) ,最终获得最大化的奖励 ( Reward )。 DeepSeek : 技术创新—推理模型 | RL DeepSeek 应用场 景 DeepSeek 的能力层级 • 1. 基础能力层
    10 积分 | 79 页 | 6.52 MB | 9 月前
    3
  • pdf文档 AI跃迁派:2025年DeepSeek零基础完全指南

    多头潜在注意力:像多线程处理信息,显存占用降低 50%,适合普通电脑运 行 ⚫ MoE 混合专家系统:遇到问题自动召唤“专业团队”,比如数学题找数学专家模 块,写诗找创意模块 ⚫ 强化学习驱动:通过“试错+奖励”机制自我进化,类似游戏 AI 自学通关 2.划时代意义:中国 AI 的破局之战 DeepSeek 的诞生不仅是技术突破,更是国家战略级的里程碑: 成本革命: ⚫ 训练成本仅
    10 积分 | 21 页 | 1.01 MB | 9 月前
    3
共 3 条
  • 1
前往
页
相关搜索词
2025DeepSeekR1Kimi1.5及类推理模型推理模型开发解读报告山东东大大学山东大学应用部署AI跃迁基础完全指南
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 - 2026 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩