2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告10 DeepSeek-R1 技术剖析:DeepSeek-R1 Zero DeepSeek-R1 Zero: 无需监督微调SFT,纯强化学习驱动的强推理模型 ➢ 推理为中心大规模强化学习:组相对策略优化(GRPO)+ 瞄准 Reasoning 推理任务 ➢ 自我迭代提升Self-Evolution:随着训练步数的增长,模型的thinking response length 逐 渐增加(对应着 多目标优化:兼顾推理性能、帮助性和安全性; ➢ 蒸馏的潜力:蒸馏可以帮助将更大模型通过RL发现的高阶推理范式蒸馏到小模型中,这比用小 模型直接使用大规模RL发现的推理范式要更加有效; ➢ 基于群组的相对策略优化 (GRPO) :通过构建多个模型输出的群组,并计算群组内的相对奖励来 估计基线,从而避免了传统策略优化算法中需要使用与策略模型大小相同的评论模型 ➢ 降低 RL 训练的计算成本 \保证模型能够有效地学习到策略10 积分 | 76 页 | 8.39 MB | 6 月前3
AI跃迁派:2025年DeepSeek零基础完全指南高危岗位:基础文案/客服/数据分析岗位替代率达 47% ⚫ 转型路径:建立“人机协作绩效评估体系”,重构岗位价值标准 ③认知依赖 ⚫ 思维退化:调查显示过度依赖 AI 导致 25%用户独立思考能力下降 ⚫ 应对策略:中小学增设“批判性使用 AI”课程,培养元认知能力 5.未来展望:AI 原生时代的生存法则 DeepSeek 预示的不仅是工具革新,更是认知革命的序幕: ①能力坐标系重构10 积分 | 21 页 | 1.01 MB | 6 月前3
共 2 条
- 1
