低空智能—从感知推理迈向群体具身解决方案(38页)全域感知,智驭低空 低空智能 : 从感知推理迈向群体具 身 一、 低空研究背 景 二、 低空数据平 台 三、 低空感知大 脑 CONTEN TS 一、 低空研究背 景 二、 低空数据平 台 三、 低空感知大 脑 CONTEN TS 加入星球获取更多更全的数智化解决方案 2025 年 10 月 , 党的二十届四中全会颁布《中共中央 关于制定国民经济和社会发展第十五个五年规划的建议》 , 需 要 精细逻辑进行推理。 复杂环境下 ,低空推理决策面临语义稀密、空间难解与任务繁复的挑 战 感知 目标检测、 目标计数、 场景分类、 异常识别 理解 图像描述、 条件判断、 视觉定位、 高度预测 推理 物理推理、 因果推理、 情景推断、 反事实推理 决策 多机协同、 任务规划、 动作执行、 安全性评估 任务高度多样化 ,在输出结构、 知 识 深度与推理路径上差异巨大 , 需要 需要 跨层次泛化推理能力。 低空强投影与三维信息缺失 , 需 要 理解姿态与视角差异 ,从二维观测 中构建空间推理能力。 这里是什么场景? 变电设施间距多少? 存在安全隐患吗? 斜拍视角进行位置判断与空间度量 任务间推理路径差异化 俯拍视角进行目标感知与属性理解 四维度多种任务形式 空间难解 任务繁复 复杂环境下 ,低空具身智能面临“不可靠” ,“不精准”和“不可控”的挑战10 积分 | 38 页 | 11.86 MB | 2 月前3
DeepSeek银行部署加速,AI金融应用迎来跃迁(25页 PPT)等。 n 风险提示 : AI 技术落地不及预期、竞争加剧、信息更新不及时等。 2 n DeepSeek 开源使金融机构能够轻松获得前沿模型能力,且大幅降低部署成本。其通过对训练方式、算法架构和推理方 法的工程化优化大幅降低了部署成本。近期采用大规模 RL 训练方法的阿里 QwQ-32B 等模型也在缩小规模的同时达到 了 DeepSeek R1 671B 的应用效果,有望进一步催生银行落地应用。 阶段大规模应用了强化学习方法。 R1 使用了冷启动 + 大规模强化学习方法, R1-Zero 版 本模 型使用纯强化学习方法。随训练过程推进,模型展现出了推理能力的扩展(高准确率和 long-CoT 能力涌现等) 。 性能:后训练阶段大规模应用强化学习,表现推理能力扩展 资料来源: DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Attention , MLA )进行优化;在后训练阶段采用冷启动 + 大规模强化学习 方 式,不再使用传统 SFT 做大规模监督微调, 甚至绕过了一些 CUDA ,采用 PTX 汇编来提升能力;在推理场景下通过 大规模跨节点专家并行( Expert Parallelism , EP )来优化通信开销,尽可能实现负载均衡。 图表: DeepSeek R1 架构图10 积分 | 25 页 | 1.44 MB | 4 月前3
AI大模型与AIGC技术在公安领域的应用解决方案(99页 PPT)技术提出严厉批评,随后英国政府、美国 DARPA 和美 国国家科学委员会等机构大幅削减对 AI 的投资,使得 AI 研究陷入低谷。 发展历程 - 第一次低 谷 专家系统基于知识整理出来的规则,进行逻辑推理,来模拟和 延伸人类专家的决策能力,解决复杂的问题。 3. 人工智能的历史 发展历程 - 第二次高潮阶 段 第二次高潮阶段( 1980 年 -1987 年) 3. 人工智能的历史 第二次低谷阶段( 强化学习 智能芯片技术 基础算法技术 二 、关键技 术 计算机视觉 自然语言处理 语音处理 多模态分析推理技术 1. 人工智能的关键技术 感知技术 二 、关键技 术 人工智能研究的三个门派 符号主义,又称逻辑主义、心理学派或计算机学派,是一种基于逻辑推理的智能模拟方法,认为人工智能源 于数学逻辑,其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。 典型代表: 行为主义,又称进化主义或控制论学派,是一种基于“感知——行动” 的行为智能模拟方法,思想来源是进 化论和控制论。其原理为控制论以及感知——动作型控制系统。 该学派认为:智能取决于感知和行为,取决于对外界复杂环境的适应,而不是表示和推理,不同的行为 表现出不同的功能和不同的控制结构。生物智能是自然进化的产物,生物通过与环境及其他生物之间的相互 作用,从而发展出越来越强的智能,人工智能也可以沿这个途径发展。 典型代表:著名的研10 积分 | 99 页 | 11.99 MB | 2 月前3
2025年中国算力中心行业白皮书主,结合部分零售业务 • 第三方服务商占据定制 批发市场的主要份额 • 需求来源以智算为主要 驱动,通算稳定增长 • 受益于大模型的训练需 求增长,定制批发模式 再迎发展机遇 • 零售模式有望在推理场 景中实现进一步增长 代表性 供给方 资料来源:灼识咨询 萌芽期 探索期 爆发期 转型期 繁荣期 2022-2023 2009-2014 2003-2008 2000-2002 2024-未来 算力的主力军。借助云计算实现零散智算资源集中与纳管的优势,各大云厂商纷纷在智算领域进行布局,形成千卡、万卡智能云集群,以云服务的方式提供可便捷 获取的智能算力。云计算与智算资源融合形成的智能云能够为大模型训练和推理提供充足的算力资源,已经成为促进人工智能领域发展的坚实底座。 年均复合增长率 2015-2021 2021-2023 2023-2028E 66.5% 44.6% 39.3% 24.9% 23 展,"AI+"战略将全面赋能推动千行百业加速迈向全面智能化与数字化转型的新纪元。 13 资料来源: 灼识咨询 AIGC时代到来 • 2022年12月,OpenAI推出的 ChatGPT展现出了其在逻辑推理和 文本理解上的强大能力,且其生产 的内容已接近人类创作水平,这标 志着AI大模型能力的进一步飞跃。 • AI大模型高度智能化的生成能力具 备巨大潜力和无限可能,为其在各 个领域的应用提供了更广阔的空间。10 积分 | 55 页 | 7.12 MB | 4 月前3
面向5G-A与AI融合驱动的算网智一体化解决方案白皮书(2025年)-中移智库为核心理念,强化“连接 + 算力 + 能力” 深度融合,推动数字基础设施从“被动支撑”向“主动赋能”跃迁,同时助力千行百业实现数字化 转型与高质量发展。 算为引擎:面对 UPF 转发与 AI 推理等差异化负载,算力平台需突破通用架构局限。通过轻量化内核、 异构计算与云边协同,实现 CPU/GPU/NPU 等多样化算力资源的统一池化与智能调度,使算力灵活 流动,紧密协同网络需求与 AI 任务,成为驱动业务智能的强劲引擎。 现资源按需分 配与快速响应,依托跨异构适配能力对 CPU/GPU/NPU/DPU 等多元算力进行统一调度,支持云边模型 与数据协同机制构建“边缘 - 区域 - 中心”三级算力体系,实现模型训练与推理任务的动态流转。同时, 通过容器隔离、可信计算与多层冗余架构,保障平台的安全与高可靠运行,满足企业业务对隐私与稳定 性的极致要求。 赋能企业专网的边缘智能核心网:通过五大关键能力构建的智能化网络基座。异构接入能力可破解网络 智能驱动中枢与模型服务基座:作为系统的“智慧大脑”,智能驱动中枢层深度融合大模型与行业 知识,通过模型边缘适配技术解决通用大模型在边缘环境下的部署难题,依托硬件协同优化实现性 能与能效的最佳平衡;基于参数化调节机制动态优化推理过程,确保服务质量与资源消耗的精准控制; 通过智能体支撑框架构建多智能体协同体系,实现复杂任务的自动分解与执行;借助 MCP Server 与网络模型上下文协议将网络能力标准化、工具化,彻底打通“业务10 积分 | 24 页 | 4.83 MB | 5 月前3
2025年工程智能白皮书-同济大学要实现如此宏大的变革,我们必须找到正确的实现路径。幸运的是,技术的 发展为我们指明了方向。大型语言模型,多模态大模型与智能体技术的崛起,构 成了工程智能的核心驱动力。大模型以其强大的知识融合、逻辑推理与自然语言 交互能力,成为了理解和处理工程领域复杂信息的“认知内核”;而智能体则扮 演了“超级执行者”,它能够自主规划、调用工具、协同系统,将认知转化为行 动,完成复杂的工程任务。二者的结合,为构建工程智能操作系统提供了前所未 的各项技术能力进行高效整合与协同,通过打造统一的基础设施、数据资源、基 础模型与智能体能力等平台,为实现工程智能的规模化价值提供坚实的平台化支 撑。这一系统的构建,依赖于工程智能时空全模态基础模型关键技术、工程智能 推理决策关键技术、工程智能体关键技术等核心共性技术上的持续突破。 展望未来,工程智能的发展将呈现从知识问答走向工程推演决策、从碎片化 响应走向人模系统一体化及共生智能、以及最终的从单点技术走向规模化赋能的 ..................................... 48 6.2 工程智能推理决策关键技术.........................................................................50 6.2.1 面向工程智能的推理增强技术..............................................10 积分 | 81 页 | 6.09 MB | 5 月前3
智能算网_AI Fabric2_0_研究报告-中国信通院&华为2025年上半年,OpenAI的GPT-4.5、Google的Gemini 2.5 Pro、Anthropic的Claude 4等模型在复杂推断能力上持续突破。例如,Gemini 2.5 Pro在数学推理(2025高考数学卷得分140分)和多模态理解(支持100万令牌上下文窗 口)上达到新高度,而Claude 4 Opus通过混合推断模式实现“快速响应”与“深度反 思”的动态平衡。 模型摸高驱动集群规模走向10万卡,代际快速演进: 配置复杂等问题已难以满足AI流量的需求,扁平化的网络架构成为必然选择。 2)推理业务快速崛起,并呈现多样化发展,带动网络发展 随着大模型技术逐渐成熟,智算行业正经历从“训练优先”向“推理主导”的战略转型。 这一趋势由两大核心驱动力: 算力结构重构: 2025年中国智能算力规模预计达1037.3 EFLOPS(是通用算力的12 倍),随着模型的成熟以及生成式人工智能应用的不断拓展,推理场景的需求日益增加,推 理服务器的占比将 理服务器的占比将显著提高。IDC数据显示,预计到2028年,推理工作负载占比将达到 73%。 应用场景爆发式增长:智算业务的应用场景正从互联网行业向金融、医疗、制造、交通 等传统行业全面延伸,推动各行业的智能化转型。例如在金融领域,智算技术被广泛应用于 风险控制、智能投顾、欺诈检测等场景。通过对海量金融数据的分析和建模,智算中心能够 为金融机构提供更精准的风险评估和投资建议,提高金融服务的效率和安全性。10 积分 | 50 页 | 2.72 MB | 3 月前3
2025年云计算研究白皮书-中国电信CPU GPU 负载混部 性能诊断 QoS保障 资源画像 参数 调优 弹性伸缩 ... AI运维 故障预测 AI增强 云游戏 ... 新型协议 新兴架构 通算+智算云 推理API 预训练 大模型 精调即服 务 模型评估 AI for Cloud 计算 Serverless AI云函数 RDMA AI+PaaS 数据库 Hypervisor 轻量虚拟化 合,构建面向 AI 训练与推理的高性能智算云平台。同时,云操作系统通过 AI 驱动的资源调度、能耗管 理与故障预测,实现数据中心的高效、低碳运行,践行绿色可持续发展。 在系统框架层,AI PaaS 正在重塑开发者体验。Serverless 计算平台结合冷启动加速、函数压缩与工作 流编排,支持 AI 应用的极致弹性与快速迭代;面向 AI 开发的一站式平台集成训练框架、推理优化、向 2 CHAPTER Operations)范畴,实现 模型交付的自动化与可追溯。与此同时,模型即服务 MaaS(Model as a Service)正成为连接模型能力与 行业应用的关键枢纽 [5]。通过提供预训练大模型托管、精调接口、推理 API 及模型市场,MaaS 使企业 无需从零训练即可获取先进 AI 能力,极大加速 AI 落地进程。 AI for Cloud 广泛应用于基础架构层和系统框架层两个层级,通过 AI 算法优化资源调度、网络拥塞10 积分 | 140 页 | 11.65 MB | 2 月前3
电力人工智能多模态大模型创新技术及应用方案(35页 PPT)1980s-2000s 早期 2000s-2010s 2010s-2018s 2018s- 现在 推理期 知识期 统计学习时期 集成方法时期 早期神经网络时期 大模型时期 人工智能领域迭代迅速、多种技术流派蓬勃发展,在多个领域已有广泛应用。 卷积神经网络 循环神经网络 图神经网络 聚焦知识工程 与专家系统构建, 通过人工整理知 识库驱动决策, 受限于知识获取 成本与规模瓶颈。 以符号逻辑为 核心,依赖人工 规则与推理系统 ( 如 专家系统 ), 强解 释性但泛化 能力 弱。 基于海量数据与 大规模预训练; 代表算法: DeepSeek 系列 Qwen 系列 GPT 系列 通过模型组合提升 播算法,显著提升了模型的学习能力。随后,基于注意力机制的 Transformer 架构改变了自然语言处理 的范式,使大规模预训练成为可能。近年来,大模型凭借超大规模参数和海量数据学习,在多模态学习、 推理和通用人工智能方向取得重要进展,为人工智能的发展开启了新的阶段。 大模型 模态扩展 文本 检索增强 图像 / 视频 大规模基础模型 音频 电力大模型 医疗大模型。 Transformer10 积分 | 35 页 | 7.61 MB | 3 月前3
智算无界:AIDC的超越和重构-上海贝尔与市场格局 正在加速重构。 生成式人工智能基于海量数据训练、推理生成新的输出,并能以文本、音频和图像等形式创建新内容。 智算中心是支持生成式AI工作负载的新型数据计算中心,基于AI计算架构,提供AI应用所需算力服务、数据 服务和算法服务的算力基础设施,它融合高性能计算设备、高速网络以及先进的软件系统,为人工智能训练 和推理提供高效、稳定的计算环境。据测算,2023年全球生成式AI市场规模,包括硬件、软件以及服务等, 放等,提升用户体验与商业价值。DeepSeek算法与芯片深度适配,不仅降低对高端GPU的依赖,也推动算 力供应链自主化。高效的算法一方面减缓了AI训练的算力需求,另一方面AI应用的普及导致AI训练与推理的 侧重点发生转变,预计未来几年推理算力占比将远超训练部分。 1.2 技术破局:从GPU集群到分布式协同一体 建设和运营智算中心需要巨大的资本投入,包括购买昂贵的AI芯片、建设高密度机房等。AI工作负载对 网络 在云计算阶段,云服务器主要是CPU服务器,每台服务器配置1-2颗CPU芯片即可。AI工作负载分为两 大类 — AI训练以及AI推理。人工智能训练过程将首先创建AI模型。它包括数据集合,模型选择,模型训练, 模型评估,模型部署和模型监控,涉及密集使用GPU。模型开发完成后启动推理业务,为最终用户提供业务 支持或与模型交互。因此大模型的训练基于更大规模的GPU并行计算,单服务器内部署GPU数量提升至4颗、10 积分 | 38 页 | 9.31 MB | 5 月前3
共 124 条
- 1
- 2
- 3
- 4
- 5
- 6
- 13
