ppt文档 规划和自然资源行业应对DeepSeek浪潮的思考 VIP文档

12.36 MB 62 页 0 下载 15 浏览 0 评论 0 收藏
语言 格式 评分
中文(简体)
.pptx
3
概览
规划和自然资源行业应对 DeepSeek 浪潮的思考 中国城市规划学会城市规划新技术应用专业委员会 广州市基础地理信息中心 何正国 一 DS 影响千行百业 二 大模型技术原理 三 四横三纵应对路径 四 未来展望与思考 目录页 CONTENTS PAGE 一、 DeepSeek 影响千行百 业 1. 接入 DeepSeek 热 潮 2. 对千行百业的影响 1 月 31 日 ,英伟达、亚马逊和微软这三大美国科技巨头在同一天宣布接入 DeepSeek 的大模型。英伟达将这一模型应用于其 GPU 加速卡和数据中心中以提供 更 高效的计算能力;而亚马逊则利用自身的云计算平台优势来推广该模型的使用; 至于 微软将其集成到现有的软件产品和服务中去以增强用户体验。 1 、 三大科技巨头同日接入 DeepSeek 2 月 1 日:中国电信“息壤 ”平台接入,华为昇腾云服务部署推理服务。 2 月 3 日: 中国联通“星罗 ”平台集成,覆盖 270+ 骨干云池。 2 月 5 日: 中国移动适配全版本模型,火山引擎支持多尺寸部署 1 、 中国基础电信运营商接入 DeepSeek 截至 2025 年 3 月,已有超过百家国内外企业宣布接入 DeepSeek ,覆盖政务、 互 联网、制造业、汽车、医疗、能源、金融、手机、教育、科技等多个领域,形 成从 底层算力到终端应用的完整生态闭环。 1 、千行百业深度拥抱 DeepSeek 自 2025 年 2 月以来,北京、广东、江西、新疆等省市相继宣布接入 DeepSeek 大 模型,通过智能导办、工单处理、公文写作等场景创新,推动政务服务从“人工 密 集型 ” 向 “数据智能型 ” 转型。 1 、 DeepSeek 赋能政务效率提 升 DeepSeek 大模型正以“低成本、高性能、开源化 ” 的创新路径,打破技术垄 断壁垒,推动 AI 从巨头专属走向全民共享。其技术突破不仅重塑了全球 AI 竞争 格 局,更通过生态赋能为发展中国家提供了技术追赶的新机遇。 2 、技术普惠:让 AI 不再是巨头的专属工 具 DeepSeek 通过“技术穿透、数据觉醒、模式重构 ”的三重跃迁路径,其核心 价值不仅在于单点效率提升,更在于通过 AI 与产业场景的深度融合,重塑行业决 策 底层逻辑。 二、决策模式从经验驱动向“数据 + AI ” 协同驱动转变 金融风控中,传统依赖规则与经验难 应 对实时风险, DeepSeek 构建协同 网 络,通过实时数据驱动模型动态 学习, 反欺诈准确率从 90% 提至 99.7% ,推 动决策转向算法实时优化, 实现精准动 态风险识别。 一、在行业应用方面, DeepSeek 成效显著 制造业中,汽车设计仿真迭代加快, 零 部件参数优化从月级缩至天级,研 发周 期缩短超 50% ;医疗领域,医 学影像 检出率提升 20% ,药物研发 靶点筛选 效率突破,研发周期缩至传 统模式的三 分之一 。 DeepSeek 2 、行业重构:从效率优化到模式改 变 二、资本市场:“砸钱堆参 数 ”转向 “解决实际问题 ” DeepSeek 投资逻辑彻底转变,过去资本追捧 “万亿参数 ” 的大模型竞赛,如 今聚焦 “能否落地赚钱 ”。寒武 纪、海光信息等国产算力企业利润 涨超 50% ,估值从 30 倍跃升至 80 倍,成资本市场新宠。 DeepSeek 高效算法助力国产芯片商用,性能提升,相关企业股价上涨,中下游 也 各有积极表现。资本市场投资逻辑转变,转向聚焦技术落地效能与商业变现能 力的 理性回归。 DeepSeek 高效算法助力华为昇腾、 寒武纪等国产芯片商用,性能达国 际 60% 以上,相关企业股价两月 涨 超 30% 。中游:超算及地方平 台接 入技术,中小企业算力成本降 。下 游:带 AI 功能手机销量涨 120% 。 2 、提振算力产业链:助力国产算力成 长 一、算力产业链:让国产算力 “能用、好用 ” 1. 语言模型概述 2. Transformer 结构 3. 语言模型构建流 程 二、 大语言模型技术原理 数据是用于训练 AI 的,也就是 AI 算法通过大量的数据去学习 AI 中算法的参数与配置, 使得 AI 的预测结果与实际的情况越吻合。这里说的数据是指经过标注的数据,不是杂 乱的数据。所谓经过标注的数据是指有准确答案的数据。 算法是指解题方案的准确 而完整的描述,是一系列 解决问题的清晰指令,算 法代表着用系统的方法描 述解决问题的策略机制。 简单来理解,算法就是解 决问题的方法和步骤。 算力是指计算机的处 理的能力,由于深度 学习的算法,涉及非 常多的参数(不同功 能的 AI 算法参数的 个 数是不同的), 有的 AI 算法的参数 达到几 千亿上万亿。 人工智能核心要素 语言是人类与其他动物最重要的 区别之一 逻辑思维以语言的形式表达 知识以文字的形式记录和传 播 如果人工智能想要获取知识 ,就必须懂得理解人类使用的不太精确、可能有歧义、 混乱的语言。 1 、语言模型概 述 语言模型( Language Model , LM ) 目标是建模自然语言的概率分 布 词汇表 V 上的语言模型由函数 P(w1w2...wm) 表示 ,表示词序列 w1w2...wm 作为 一 个句子出现的可能性大小。对于任意词串 w1w2...wm ∈ V+ ,则有 P (w1w2...wm ) > 0 ,并且对于所有词串, 函数 P (w1w2...wm ) 满足归一化条件: 由于联合概率 P (w1w2...wm ) 的参数量十分巨大 ,直接计算 P (w1w2...wm ) 非 常困难。如果把 w1w2...wm 看作一个变量 ,那么它具有 |V|m 种可能。 按照《现代汉语词典(第七版)》包含 7 万词条,句子长度按照 20 个词计算,模型参数量达到 7.9792* 1096 的天文数字。 1 、语言模型概 述 由此, w1w2...wm 的生成过程可以看作单词逐个生成的过程。首先生成 w1 ,之后 根 据 w1 生成 w2 ,再根据 w1 和 w2 生成 w3 , 以此类推,根据前 m − 1 个 单词生成 最后一个单词 wm 为了减少 P (w1w2...wm ) 模型参数量 ,可以利用句子序列通常情况下从左至右的 生 成过程进行分解 ,使用链式法则得到: 1 、语言模型概 述 学习语义关系 理解词语含义:大模型通过大量文本中的使用场景来 理解词语含义。比如,当看到“苹果 ”一词频繁与水 果、食物、红色的圆形物体等描述相关联时,模型就 能逐渐明白“苹果 ”指的是一种具体的水果。 分析句子语义: 以“猫在桌子上 ”为例,模型能识别 出“猫 ”是主体, 在 ……上 ”表示位置“关系, “桌 子 ” 是位置的对象,从而理解句子所表达的空间关系。 学习上下文关系:例如,在“小明生病了,所以他没 去学校 ”这句话中,模型通过“所以 ”以及前后句子 的内容,能够明白生病是没去学校的原因,这是因果 关系的一种体现。同时,模型也能理解转折、并列等 其他语义关系。 学习语言模式 观察词语顺序:通过大量文本如“我 爱 吃饭 ” 、 “他 喜欢 跑步 ”等,识别出 主语通常在句首,动词居中,宾语在句 尾的基本句子结构。 统计词语搭配:模型统计词语的 搭配频 率,比如“美丽 ”常与“花朵 ” 、 “风 景 ”相伴, “快速 ”则常与“奔跑 ”、 “ 行驶 ”等词搭配。这一过程帮助模型理 解词语间的搭配习惯,从而判断哪些词语 组合更为合理,形成对语言模式的认识。 语言模型训练就是要学习词、句内在的语言模式和语言关系,对这种关系进行 建模。 1 、语言模型概 述 Token :自然语言中的最小单元 句子: 我是一名 AI 工程师。 字: 我 / 是 / 一 / 名 / A / I / 工 / 程 / 师 / 。 词: 我 / 是 / 一名 / AI / 工程师 / 。 Bi-Gram : 我是 / 是一 / 一名 / 名 A / AI / I 工 / 工程 / 程师 / 师。 Tri-Gram : 我是一 / 是一名 / 一名 A / 名 AI / AI 工 / I 工程 / 工程师 / 程师。 / 师。 WordEmbedding :将词映射成向量 AI [0.70753, 0.93948, 0.00133, 0.70741, 0.79584, 0.30115, 0.28655, 0.55261, ...] 工程师 [0.73236, 0.73890, 0.64466, 0.54484, 0.80536, 0.46147, 0.96903, 0.88725, ...] 是 [0.41284, 0.41901, 0.37967, 0.90657, 0.99241, 0.05147, 0.85335, 0.29367, ...] 我 [0.69308, 0.84442, 0.21239, 0.55487, 0.08609, 0.52786, 0.55209, 0.43071, ...] 一名 [0.54362, 0.46765, 0.37969, 0.55248, 0.90865, 0.08897, 0.34130, 0.29651, ...] 1 、语言模型概 述 只看下一个词: 「我喜欢」概率: 0.3 「我想」概率: 0.4 多看一个词: 「我喜欢你」概率: 0.3 ×0.8=0.24 「我喜欢吃」概率: 0.3 ×0.1=0.03 「我想你」概率: 0.4 ×0.5=0.2 「我想去」概率: 0.4 ×0.3=0.12 1 、语言模型概 述 语言模型的目标是建模自然语言的概率分布 ,在自然语言处理研究中具有重要的 作 用 ,是自然语言处理的基础任务之一。包括: n 元语言模型、 神经语言模型、 预训 练语言模型。 随着基于 Transformer 的各类语言模型的发展及预训练微调范式在自然语言处理 各 Transformer 结构是由谷歌在 2017 年提出并 首 先应用于机器翻译 Transformer 结构完全通过注意力机制完成对源 语 言序列和目标语言序列全局依赖的建模 。 如 今 , 几乎全部大语言模型都是基于 Transformer 结构 的。 2 、 Transformer 结 构 类任务中取得突破性进展。 基于 Transformer 的编码器和解码器结 构 如图所示 • 左侧和右侧分别对应着编码器( Encoder ) 和 解码器( Decoder )结构, 它们均由若 干个基 本的 Transformer 块( Block )组成 (对应图 中的灰色框) • 每个 Transformer 块都接收一个向量序列作 为 输入 ,并输出一个等长的向量序 列作 为输出 • yi 是当前 Transformer 块对输入 xi 进一步整 合 其上下文语义后对应的输出。 2 、 Transformer 结 构 掩码多头 自注意力 位置编码 位置编码 多头 自注意力 词元 嵌入表示 位置感知 前馈网络 词元 嵌入表示 多头 自注意力 位置感知 前馈网络 输出 ( 迭代右 移 ) Add & Norm Add & Norm Add & Norm Add & Norm Softmax Linear Add & Norm 输出概率 输入 N × ×N • 注意力层:使用多头注意力( Multi-Head Attention ) 机 制整合上下文语义,它使得序列中任意两个单词之间的 依 赖关系可以直接被建模而不基于传统的循环结构,从 而更 好地解决文本的长程依赖问题。 • 位置感知前馈层( Position-wise FFN ):通过全连接 层 对输入文本序列中的每个单词表示进行更复杂的变换。 • 残差连接:对应图中的 Add 部分。它是一条分别作用在 上 述两个子层中的直连通路,被用于连接两个子层的输入 与 输出,使信息流动更高效,有利于模型的优化。 • 层归一化:对应图中的 Norm 部分。它作用于上述两个 子 层的输出表示序列,对表示序列进行层归一化操作, 同样 起到稳定优化的作用。 2 、 Transformer 结 构 掩码多头 自注意力 位置编码 位置编码 多头 自注意力 词元 嵌入表示 位置感知 前馈网络 词元 嵌入表示 多头 自注意力 位置感知 前馈网络 输出 ( 迭代右 移 ) Add & Norm Add & Norm Add & Norm Add & Norm Softmax Linear Add & Norm 输出概率 输入 N × ×N 预训练阶段 1000+GPU 月级别训练时间 GPT 3.0 、 DeepSeek 、 ,qwen 指令微调 1-100GPU 天级别训练时间 MOSS 、 ChatGLM6b 、 Vicuna-13B 等 奖励函数 1-100GPU 天级别训练时间 强化学习 1-100GPU 天级别训练时间 ChatGPT 、 Claude 数据集合 算法 模型 资源需求 3 、语言模型构建流 程 标注用户指令 数万用户指令和对应 的答案 用户指令 十万用户指令 标注对比对 百万标注对比对 原始数据 数千亿单词: 图书、 百科、网页等 语言模型预训练 强化学习方法 二分类模型 语言模型预训练 SFT 模型 RL 模型 基础模型 RM 模型 预训练( Pretraining ) 阶段需要利用海量的训练数据 ,数据来自互联网网页、维 基 百科、书籍、 GitHub 、论文、 问答网站等 ,构建包含数千亿甚至数万亿单词的具 有 多样性的内容。 利用由数千块高性能 GPU 和高速网络组成超级计算机 ,花费数十天完成深度神经 网 络参数训练 ,构建基础语言模型( Base Model ) 3.1 、预训练阶 段 I 位置感知 前馈网络 、 Add & Norm 掩码多头 自注意力 位置编码 位置编码 位置感知 前馈网络 多头 自注意力 词元 嵌入表示 词元 嵌入表示 多头 自注意力 输出 ( 迭代右 移 ) Add & Norm Add & Norm Add & Norm Softmax Linear Add & Norm 输出概率 输入 N × ×N 有监督微调( Supervised Finetuning ) ,也称为指令微调 ,利用少量高质量数 据 集合 ,包含用户输入的提示词和对应的理想输出结果。用户输入包括问题、 闲聊 对 话、任务指令等多种形式和任务。 例如:提示词( Prompt ):中山大学有几个校区? 理想输出:中山大学现有 5 个校区,分别是广州校区南校园、广州校区北 校 园、广州校区东校园、珠海校区和深圳校区。其广州校区南校园是中山 大学 的主校区,广州校区北校园原为中山医科大学所在地,广州校区东校 园位于 广州市番禺区大学城外环东路 132 号,是中山大学较为年轻的校区之 一。 3.2 、有监督微调阶 段 奖励建模( Reward Modeling ) 阶段的目标是构建一个文本质量对比模型 ,对 于 同一个提示词, SFT 模型给出的多个不同输出结果的质量进行排序。奖励模型 ( RM 模型) 可以通过二分类模型 ,对输入的两个结果之间的优劣进行判断。 RM 模型与 3.3 、奖励建模阶 段 基础语言模型和 SFT 模型不同, RM 模型本身并不能单独提供给用户使用。 强化学习( Reinforcement Learning ) 阶段根据数十万用户给出的提示词 ,利用 前一阶段训练的 RM 模型 ,给出 SFT 模型对用户提示词补全结果的质量评估 ,并与 语 言模型建模目标综合得到更好的效果。使用强化学习 ,在 SFT 模型基础上调整 参数, 使得最终生成的文本可以获得更高的奖励( Reward ) 。该阶段需要的计算量 相较预 训练阶段也少很多 ,通常仅需要数十块 GPU ,数天即可完成训练。 例如:机器人一开始并不知道如何保持平衡和移动 , 它会尝试不同的步伐、姿势和动作 (采取各种行动)。如果某一次尝试让它向前移动了一段距离并且没有摔倒,它就会 得到一个“奖励”信号(比如数值为正的奖励分数),意味着这个动作是朝着目标 (学会走路)前进的好行为;要是它摔倒了或者动作很不协调,就会得到一个“惩 罚”信号(比如数值为负的分数)。机器人基于这些奖励和惩罚的反馈,不断调整自 己的动作,尝试不同的变化。经过多次尝试和调整,它逐渐学会保持平衡、协调动作, 最终能够成功地行走。 3.4 、强化学习阶 段 1. 智才筑基—— AI 素养提升工 程 2. 算力赋能—— 基础设施升级 3. 基座选型—— 核心模型构建 4. 安全筑盾—— 防护体系建设 5. 场景深耕—— 业务痛点突破 6. 知识聚库——本地知识库建设 7. 智能铸魂 —— AI Agent 构建 三、 四横三纵应对策略路径 智绘之路 ®deepseek 四横三纵七步谋, 智算筑基夯根基。 筑牢安全破瓶颈, 智识赋能启新章。 应对 DeepSeek 浪潮的策略路 径 安全筑盾 基座选型 算力赋能 智才筑基 场景深耕 知识聚库 智能铸魂 能力 构建 在规划和自然资源行业普及 AI 并提升行业人员的 AI 素养,是推动 AI 技术在该领 域广 1 、智才筑基—— AI 素养提升工 程 先进的带动 后进的养成 使用 AI 的 习 惯,组 织文 化就 重塑了, 贴 上了 AI 的 标签 有使用场景 就想用 AI , AI 效果好, 就会越用越 多,越用越 熟练,然后 就更想用 不断使用 AI , 慢慢就 养成 习惯 了,这 就 是“第一 念 原理 ” 得让全行业 人员对 AI 感 兴趣, 别抵 触, 要主动 拥 抱它 泛应用的关键。 习惯 养成 思维 转变 文化 重塑 在当今数字化浪潮以迅猛之势席卷全球的时代,倡导全行业积极运用 AI
下载文档到本地,方便使用
共 62 页, 还有 1 页可预览, 继续阅读
文档评分
请文明评论,理性发言.