北大:DeepSeek-R1及类强推理模型开发解读的作用 从文本模态到多模态 其他讨论: Over-Thinking 过度思考等 未来方向分析探讨 模态穿透赋能推理边界拓展: Align-DS-V 合成数据及 Test-Time Scaling: 突破数据再生产陷阱 强推理下的安全:形式化验证 Formal Verification \ 审计对齐 Deliberative Alignment Outline Post-Training 时代下的 RL 新范式:后训练扩展律 Post-Training Scaling Law DS-R1 独立发现了一些通往 o1 路上的核心理念,并且效果还好到受到了 OpenAI 的认可 如何通过有效的 Test-Time Scaling 和 Train-Time Scaling 提升模型的推理能力? 得益于纯大规模强化学习 , DeepSeek-R1 具备强大 4 Pre-Training Scaling Laws: 预训练模型上广泛观察到的现象,协调了计算量 C 、 模 型参数量 N 和数据大小 D 之间的关系 回顾: Pre-Training Scaling Law10 积分 | 76 页 | 6.72 MB | 7 月前3
2025年DeepSeek手册:DeepSeek给我们带来的创业机会DeepSeek出现之前 我们对大模型发展趋势的十大预判 13 政企、创业者必读 14 DeepSeek出现之前的十大预判 之一 传统AGI发展步伐在放慢 需要寻找新方向 Scaling Law边际效应递减 人类训练数据接近枯竭 合成数据无法创造新知识 推理能力难以泛化,成本高昂 全面超越人类的人工智能在逻辑上不成立 政企、创业者必读 15 DeepSeek出现之前的十大预判 25 颠覆式创新的四种方式 政企、创业者必读 DeepSeek-R1突破了大模型Scaling Law瓶颈 导致大模型悲观论 认为大模型的能力无法进一步得到质的提升 开辟强化学习新范式 从预训练Scaling Law转变为强化学习Scaling Law 大数据+大参数+大算力的 预训练Scaling Law的边际效应递减 • 人类构造的训练数据已达上限 • 万亿参数规模之后,继续增大参数规 训练算力成本和工程化难度大幅上升 强化学习Scaling Law • 利用合成数据解决数据用尽问题 • 利用self-play强化学习,在不增大参 数规模前提下,大幅提升复杂推理能力 • 通过后训练算力和推理算力,在不增加 预训练算力前提下,大幅提升模型性能 DeepSeek颠覆式创新——技术创新 26 政企、创业者必读 预训练模型如GPT——疯狂读书,积 累知识,Scaling law撞墙 预训练模型思考深度不够10 积分 | 76 页 | 5.02 MB | 7 月前3
2024年中国人工智能产业研究报告www.iresearch.com.cn 中国人工智能产业技术环境(2/2) Scaling Law是否失效?思维链、强化学习、后训练可提升模型训练ROI 来源:艾瑞咨询研究院自主研究绘制。 AI技术动态 Scaling Law 演进:Scaling未到尽头,各家仍在积极探索,探索大模型能力边界 思维链 CoT 优化:强化学习完成推理侧优化,在复杂计算、科学研究等方向持续加强 研究等方向持续加强 跨模态响应:将大语言模型、视觉理解模型及和视觉生成模型等能力实现高阶融合 • 大模型Scaling Law表示,增加计算量、模型参数量或数据大小都可能会提升模型性能,但是提升效果会随着这些因素的增加而递减。虽然 Scaling Law原理给大模型能力演进限制了阈值空间,但仍有头部厂商在加大模型参数、数据规模和算力资源的投入,延续大力出奇迹的大 模型训练之路。2025年2月,OpenAI推出GPT 逻辑性、有意识 • 推理模型加强推理思考能力, 思考形态往系统二倾斜 95% 5% 自大模型发布以来,Scaling Law成为模型层发展迭代共识,国内大模型基座厂商均通过不断加大参数量级以获得模型能力的优化增强。 2024年,随着大模型的训练脚步变缓,人们也开始关注讨论Scaling Law是否存在失效风险。而以国内外头部厂商的技术动态为标杆,我 们可以看到大模型的参数规模与数据跨度仍有提10 积分 | 51 页 | 3.35 MB | 7 月前3
2024年中国人工智能产业研究报告www.iresearch.com.cn 中国人工智能产业技术环境(2/2) Scaling Law是否失效?思维链、强化学习、后训练可提升模型训练ROI 来源:艾瑞咨询研究院自主研究绘制。 AI技术动态 Scaling Law 演进:Scaling未到尽头,各家仍在积极探索,探索大模型能力边界 思维链 CoT 优化:强化学习完成推理侧优化,在复杂计算、科学研究等方向持续加强 研究等方向持续加强 跨模态响应:将大语言模型、视觉理解模型及和视觉生成模型等能力实现高阶融合 • 大模型Scaling Law表示,增加计算量、模型参数量或数据大小都可能会提升模型性能,但是提升效果会随着这些因素的增加而递减。虽然 Scaling Law原理给大模型能力演进限制了阈值空间,但仍有头部厂商在加大模型参数、数据规模和算力资源的投入,延续大力出奇迹的大 模型训练之路。2025年2月,OpenAI推出GPT 逻辑性、有意识 • 推理模型加强推理思考能力, 思考形态往系统二倾斜 95% 5% 自大模型发布以来,Scaling Law成为模型层发展迭代共识,国内大模型基座厂商均通过不断加大参数量级以获得模型能力的优化增强。 2024年,随着大模型的训练脚步变缓,人们也开始关注讨论Scaling Law是否存在失效风险。而以国内外头部厂商的技术动态为标杆,我 们可以看到大模型的参数规模与数据跨度仍有提0 积分 | 51 页 | 3.35 MB | 7 月前3
与非网:2024年中国智算产业全景调研:技术重构与演进报告Confidential & Proprietary. Do not reproduce or distribute. 4. 未来挑战与趋势 DeepSeek驱动的AI浪潮下,智算中心的发展: 1. Scaling Law的主导地位 d 算法效率提升:DeepSeek等算法优化并未抑制算力需求。 d 用户与场景增加:推动大模型普及,带动智算中心、边缘及端侧算力建设。 d 算力需求增长:算力需求持续攀升。20 积分 | 41 页 | 17.39 MB | 6 月前3
中国算力中心行业白皮书用场景:超大模型追求“能力上 限”,轻量化模型聚焦“应用普适性”,两者共同推动人工智能从实验室研究走向规模化商业落地。 17 资料来源:灼识咨询 大模型的发展及参数量变化 ➢ 规模法则(Scaling law)在当前人工智能发展中仍然占主导地位。目前,规模法则(Scalling Law)正在从预训练扩展到后训练和推理阶段,基于强化学习、思维 链等算法创新在后训练和推理阶段更多的算力投入,进一10 积分 | 54 页 | 6.96 MB | 7 月前3
2025年自动化人工智能报告P. (2023, October 3). 扩大不同机器人类型间的学习规模 。Google DeepMind: https://deepmind.google/ discover/blog/scaling-up-learning-acr oss-many-different-robot-types/ 95. Chebotar, Y., and Yu, T. (2023, July 28). RT-2:10 积分 | 66 页 | 5.50 MB | 7 月前3
共 7 条
- 1
