积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部研究报告(23)人工智能(15)技术趋势(9)解决方案(7)行业赋能(6)前沿探索(6)人工智能(6)维度学堂(5)白皮书(4)能源双碳(3)

语言

全部中文(简体)(49)

格式

全部PDF文档 PDF(50)
 
本次搜索耗时 0.020 秒,为您找到相关结果约 50 个.
  • 全部
  • 研究报告
  • 人工智能
  • 技术趋势
  • 解决方案
  • 行业赋能
  • 前沿探索
  • 人工智能
  • 维度学堂
  • 白皮书
  • 能源双碳
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 虚拟电厂规模化发展观察:成功部署的实际经验-Insights into Scaling Virtual Power Plants Real-World Findings for Successful Deployment

    1 Insights into Scaling Virtual Power Plants Real-World Findings for Successful Deployment January 2025 Angela Long (Rockcress Consulting) Ryan Long (Rockcress Consulting) Smith, Puget Sound Energy 5 5 REAL-WORLD FINDINGS FOR SUCCESSFUL DEPLOYMENT Insights into Scaling Virtual Power Plants Executive Summary Introduction Leadership Investments Planning Case Studies Introduction Leadership Investments Planning Case Studies Appendices Introduction This project, Scaling VPPs: Insights, Profiles and Inventory, seeks to overcome several challenges of accelerating the
    10 积分 | 113 页 | 8.01 MB | 22 天前
    3
  • pdf文档 2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告

    的作用 ➢ 从文本模态到多模态 ➢ 其他讨论:Over-Thinking 过度思考等 ➢ 未来方向分析探讨 ➢ 模态穿透赋能推理边界拓展:Align-DS-V ➢ 合成数据及Test-Time Scaling: 突破数据再生产陷阱 ➢ 强推理下的安全:形式化验证 Formal Verification \ 审计对齐 Deliberative Alignment ➢ 补充拓展:DeepSeek-V3 Post-Training 时代下的RL新范式:后训练扩展律 Post-Training Scaling Law ➢ DS-R1 独立发现了一些通往o1路上的核心理念,并且效果还好到受到了OpenAI 的认可 ➢ 如何通过有效的 Test-Time Scaling 和 Train-Time Scaling 提升模型的推理能力? ➢ 得益于纯大规模强化学习,DeepSeek-R1 具备强大推理 事实性推断任务 Simple-QA上表现突出 5 回顾:Pre-Training Scaling Law ➢ Pre-Training Scaling Laws: 预训练模型上广泛观察到的现象,协调了计算量C、模 型参数量N和数据大小D之间的关系 6 回顾:Post-Training Scaling Law ➢ Post-Training 阶段,随着训练时计算量(来自RL的Training阶段)和
    10 积分 | 76 页 | 8.39 MB | 7 月前
    3
  • pdf文档 2025年DeepSeek手册:DeepSeek给我们带来的创业机会

    DeepSeek出现之前 我们对大模型发展趋势的十大预判 13 政企、创业者必读 14 DeepSeek出现之前的十大预判 之一 传统AGI发展步伐在放慢 需要寻找新方向  Scaling Law边际效应递减  人类训练数据接近枯竭  合成数据无法创造新知识  推理能力难以泛化,成本高昂 全面超越人类的人工智能在逻辑上不成立 政企、创业者必读 15 DeepSeek出现之前的十大预判 25 颠覆式创新的四种方式 政企、创业者必读 DeepSeek-R1突破了大模型Scaling Law瓶颈 导致大模型悲观论 认为大模型的能力无法进一步得到质的提升 开辟强化学习新范式 从预训练Scaling Law转变为强化学习Scaling Law 大数据+大参数+大算力的 预训练Scaling Law的边际效应递减 • 人类构造的训练数据已达上限 • 万亿参数规模之后,继续增大参数规 训练算力成本和工程化难度大幅上升 强化学习Scaling Law • 利用合成数据解决数据用尽问题 • 利用self-play强化学习,在不增大参 数规模前提下,大幅提升复杂推理能力 • 通过后训练算力和推理算力,在不增加 预训练算力前提下,大幅提升模型性能 DeepSeek颠覆式创新——技术创新 26 政企、创业者必读  预训练模型如GPT——疯狂读书,积 累知识,Scaling law撞墙  预训练模型思考深度不够
    10 积分 | 76 页 | 5.02 MB | 7 月前
    3
  • pdf文档 2024年中国人工智能产业研究报告

    www.iresearch.com.cn 中国人工智能产业技术环境(2/2) Scaling Law是否失效?思维链、强化学习、后训练可提升模型训练ROI 来源:艾瑞咨询研究院自主研究绘制。 AI技术动态 Scaling Law 演进:Scaling未到尽头,各家仍在积极探索,探索大模型能力边界 思维链 CoT 优化:强化学习完成推理侧优化,在复杂计算、科学研究等方向持续加强 研究等方向持续加强 跨模态响应:将大语言模型、视觉理解模型及和视觉生成模型等能力实现高阶融合 • 大模型Scaling Law表示,增加计算量、模型参数量或数据大小都可能会提升模型性能,但是提升效果会随着这些因素的增加而递减。虽然 Scaling Law原理给大模型能力演进限制了阈值空间,但仍有头部厂商在加大模型参数、数据规模和算力资源的投入,延续大力出奇迹的大 模型训练之路。2025年2月,OpenAI推出GPT 逻辑性、有意识 • 推理模型加强推理思考能力, 思考形态往系统二倾斜 95% 5% 自大模型发布以来,Scaling Law成为模型层发展迭代共识,国内大模型基座厂商均通过不断加大参数量级以获得模型能力的优化增强。 2024年,随着大模型的训练脚步变缓,人们也开始关注讨论Scaling Law是否存在失效风险。而以国内外头部厂商的技术动态为标杆,我 们可以看到大模型的参数规模与数据跨度仍有提
    10 积分 | 51 页 | 3.35 MB | 7 月前
    3
  • pdf文档 2024年中国人工智能产业研究报告

    www.iresearch.com.cn 中国人工智能产业技术环境(2/2) Scaling Law是否失效?思维链、强化学习、后训练可提升模型训练ROI 来源:艾瑞咨询研究院自主研究绘制。 AI技术动态 Scaling Law 演进:Scaling未到尽头,各家仍在积极探索,探索大模型能力边界 思维链 CoT 优化:强化学习完成推理侧优化,在复杂计算、科学研究等方向持续加强 研究等方向持续加强 跨模态响应:将大语言模型、视觉理解模型及和视觉生成模型等能力实现高阶融合 • 大模型Scaling Law表示,增加计算量、模型参数量或数据大小都可能会提升模型性能,但是提升效果会随着这些因素的增加而递减。虽然 Scaling Law原理给大模型能力演进限制了阈值空间,但仍有头部厂商在加大模型参数、数据规模和算力资源的投入,延续大力出奇迹的大 模型训练之路。2025年2月,OpenAI推出GPT 逻辑性、有意识 • 推理模型加强推理思考能力, 思考形态往系统二倾斜 95% 5% 自大模型发布以来,Scaling Law成为模型层发展迭代共识,国内大模型基座厂商均通过不断加大参数量级以获得模型能力的优化增强。 2024年,随着大模型的训练脚步变缓,人们也开始关注讨论Scaling Law是否存在失效风险。而以国内外头部厂商的技术动态为标杆,我 们可以看到大模型的参数规模与数据跨度仍有提
    0 积分 | 51 页 | 3.35 MB | 7 月前
    3
  • pdf文档 Rand兰德:2024年评估人工智能对国家安全和公共安全的影响报告(英文版)

    2 ables, thresholds for dangerous AI capabilities, and voluntary risk management policies for scaling AI capabilities. The workshop proceedings synthesize insights from these sessions, outline the methodology seeks to continuously measure dangerous model capabili- ties, allowing for the development of scaling laws and appropriate mitigations. Unlocking AI Capabilities Regarding unlocking model capabilities dialogues, and considering the insights and innovations of the private sector. Responsible Capability Scaling Gradient of Risks and Benefits This dialogue examined the feasibility and implica- tions of establishing
    0 积分 | 12 页 | 211.27 KB | 4 月前
    3
  • pdf文档 基于大模型的具身智能系统综述

    ALOHA2[58] TidyBot[49], VIMA[50], Instruct2Act[51], VoxPoser[52], VilA[30] RoboGen[42], Mimicgen[43], Scaling up and distilling down[44], DrEureka[45], Omnigrasp[46], Meta-World[47], BEHAVIOR-1K[48] ALOHA[37] 含适当空间配置的物体及资产的模拟环境; 然后, 将高级任务分解成子任务, 选择最优学习方式 (强 化学习、运动规划或轨迹优化), 生成训练监督; 最 终, 学习获取新技能的策略. 类似地, Scaling up and distilling down[44] 提出 了一个在模拟器中进行学习的框架, 使用大语言模 型指导高层规划, 并利用基于采样的机器人规划器 (如运动或抓取采样器) 生成多样化和丰富的操作轨 the 7th Conference on Robot Learning. Atlanta, USA: PMLR, 2023. 43 Ha H, Florence P, Song S. Scaling up and distilling down: Lan- guage-guided robot skill acquisition. In: Proceedings of the 7th Conference
    20 积分 | 19 页 | 10.74 MB | 1 月前
    3
  • pdf文档 2025年智算中心液冷整机柜服务器开放架构多样化算力兼容研究报告

    大约 3-5%,这意味着 Pre-Training Scaling Law 和 Post-Training Scaling Law 可能已经达到尽头,或至少是其边际效益已经 降的很低。但随着 OpenAI O1/O3 的出现,尤其是 DeepSeek R1 的横空出世,人们发现 Reasoning(Test-Time) Scaling Law 还继续有效。对智能算力的使用,预判以后主要将
    0 积分 | 40 页 | 3.21 MB | 6 月前
    3
  • pdf文档 运营商智算中心建设思路及方案

    明确界定标准来判定模型为小模型还是大模型。根 据模型表现和模型算力需求,业界一般认为一个经过 充分训练的百亿参数的模型可认定为大模型 [1]。大模 型遵循的三大统计特征如下。 a)Scaling Law。模型表现依赖于模型规模、计算 量和数据量,这些因素之间呈现幂律关系 [2]。 b)Chinchilla Law。模型大小和数据量要同等比 例扩展,即数据量需达到参数量的 20 倍,模型训练结 大模型语言模型:原理、实现与发展 [J]. 计算机研究与发展,2024,61(2):351-361. [2] KAPLAN J,MCCANDLISH S,HENIGHAN T,et al. Scaling laws for neural language models[EB/OL].[2024-01-20]. https://arxiv. org/ abs/2001.08361. [3] HOFFMANN
    10 积分 | 6 页 | 3.64 MB | 1 月前
    3
  • pdf文档 2025年超节点发展报告-华为&中国信通院

    中国信息通信研究院副院长 魏亮 序言 3 超节点发展报告 05 人工智能高速演进背景下,算力需求呈指数级增长,大模型竞争已进入 “参数规模摸高” 与 “训 练效率提升” 并行的新阶段。Scaling Law(规模定律)将以多元形态长期生效,持续推动人工智 能技术突破能力边界,而超大规模 Transformer、MoE(混合专家模型)、稀疏注意力模型等,已 成为可扩展模型的核心架构方向。 J., McCandlish, S., Henighan, T., Brown, T. B., Chess, B., Child, R., ... & Amodei, D. (2020). Scaling laws for neural language models. arXiv. https://arxiv.org/ abs/2001.08361 3. 我国已有 433 款大模型完成备案并上线提供服务——AI 27 术语表 AI 处理器(AI Processor): 本文中提及的 AI 处理器泛指用于人工智能计算的加速器,如神经网络处理器(NPU)和图形处理器 (GPU)等。 规模定律 (Scaling Law): 揭示了 AI 模型性能与参数量、数据量、计算投入之间存在幂律关系的法则。该法则驱动了模型参数 的指数级增长,是推动基础设施走向超节点架构的核心理论之一。 超节点通信域 (Supernode
    20 积分 | 31 页 | 4.79 MB | 1 月前
    3
共 50 条
  • 1
  • 2
  • 3
  • 4
  • 5
前往
页
相关搜索词
虚拟电厂规模规模化发展观察成功部署实际经验InsightsintoScalingVirtualPowerPlantsRealWorldFindingsforSuccessfulDeployment2025DeepSeekR1Kimi1.5及类推理模型推理模型开发解读报告手册我们带来创业机会2024中国人工智能人工智能产业研究Rand兰德评估国家安全公共公共安全影响英文文版英文版基于具身系统综述年智算中心液冷整机服务务器服务器开放架构多样多样化算力兼容运营营商运营商智算建设思路方案年超节点华为信通
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩