ppt文档 人工智能赋能核安全监管 VIP文档

5.96 MB 60 页 0 下载 25 浏览 0 评论 0 收藏
语言 格式 评分
中文(简体)
.pptx
3
概览
汇报人:王晓峰 2025.4 北 京 人工智能赋能核安全 技术革新与文明守护的双重使命 生态环境部核与辐射安全中心 AI 是如何思 考 这个问题的? 01 AI 对 AI 赋能核安全监管的思考 02 国际上核安全监管在 AI 的进展 03 核安全监管信息化工作汇报 04 面向未来的进化路径 CONTENTS AI 对 AI 赋能核安全监管的思 考 核安全:文明发展的关键命题 人类文明的代际划分是 基于能源的应用 核物理本质上是对世 界本源的探究 文明演进的风险镜像 传统核安全监管体系的三大瓶颈 预测局限性 l 传统监管多基于静态模型和 历史经验进行风险评估和预 测 , 对突发事故和新型风 险 的预测能力不足。 人力依赖性 l 传统监管需要大量人力投 入 , 且存在主观性和局 限 性 , 容易出现疏漏 , 成本 高、效率低。 03 02 01 数据滞后性 l 传统监管依赖人工采样, 数据获取不及时 , 难以 及时发现潜在风险。 AI 技术驱动的监管范式革新 02 、三维辐射热力图实时生成技 术 利用融合后的多源数据 ,实时生成三维 辐射热力图。该图能直观展示辐射场的 空间分布和动态变化 ,帮助监管人员快 速掌握辐射场的整体情况 ,及时发现 异 常区域。 01 、多源传感器数据融合 通过整合来自不同类型传感器的数据, 如辐射剂量率仪、气象传感器等 ,实 现 对辐射场信息的全面获取。不同传 感器 的数据具有互补性 ,融合后能更 准确地 反映辐射场的真实情况。 辐射场动态建模 剩余寿命计算 • 根据量化评估得到的腐蚀裂纹数据 ,结合设备 的材料特性、运行环境等因素 ,运用机器学习 算法计算设备的剩余寿命。这有助于提前制定 设备维护和更换计划 ,保障核设施的安全运行。 AI 技术驱动的监管范式革新 基于计算机视觉的腐蚀裂纹量化评估 • 借助计算机视觉技术 ,对核设备表面的 腐 蚀和裂纹进行识别和量化分析。通过高精 度的图像识别算法 ,能够准确测量腐蚀和 裂纹的尺寸、深度等参数。 设备老化智能预测模型 2 1 综合考虑堆芯内的热传导、流体流动、化学反应等 多物理场因素 ,对堆芯熔毁过程进行精确模拟。 通 过建立多物理场耦合模型 ,能够更真实地反映 核事 故的演化过程 ,为应急决策提供科学依据。 应急方案推演 利用数字孪生模型 ,对不同的应急方案进行模拟 推 演。评估各种方案在不同事故场景下的有效性和可 行性 ,帮助监管人员选择最优的应急方案 ,提高 应 对核事故的能力。 AI 技术驱动的监管范式革新 堆芯熔毁过程的多物理场耦合模拟 核事故孪生演化模型 01 02 合规性智能审查引擎 NLP 自动解析法规文件 运用自然语言处理( NLP )技术, 自动解析核安全相关的 法规文件。提取关键信息和条款 ,建立法规知识库, 为 后 续的监管文书审查提供基础。 监管文书的生成 - 校验闭环 根据解析后的法规文件, 自动生成监管文书 ,并对文书 内 容进行校验。确保文书符合法规要求 ,实现监管文书生 成 和校验的自动化闭环 ,提高监管工作的效率和准确性。 AI 技术驱动的监管范式革新 u 当 AI 将核安全量化为概率模型 ,我们是否正在遗忘核技术对人类存在的 根本性威胁? u 算法优化会否遮蔽对 “绝对安全不可能性”的敬畏? u 为防范核风险而创造的超级监控系统 ,是否可能成为新形态的技术霸权? u 当 AI 替代人类判断 , 监管者会否沦为算法的 “执行器官”? 工具理性与价值理性的永恒张力 n 汉斯 · 约纳斯的责任伦理 • AI 的 “概率思维”与责任伦理的 “绝对命令”存在根本冲突。 当算法计算出 “可 接受风险”(如 0.01% 的泄漏概率) , 人类是否有权为后代做此选择? • 认知偏差的安全幻觉。 当 AI 能预测 99.9999% 的事故 ,我们是否对 0.0001% 的剩余风险更加恐惧? n 贝克“风险社会”的再诠释 • 核事故是“系统性人为不确定”的典型: AI 试图用确定性建模对抗不确 定性 , 就有可能制造 “确定性幻觉”。 福岛事故中 ,地震概率模型曾被 视为安全依据 , 最终证明人类对复杂系统的认知存在根本局限。 核安全的终极悖论:人类文明的“普罗米修斯之痛” n 康德“人为自然立法”的困境 u“ 人类为技术立法” , 而 AI 系统正悄然成为新的 “立法者” :通过数据训 练 形成的隐性规则 , 可能超出人类理解范围 , 其科学性如何评价。 u 当 AI 制定安全阈值 ,这是否构成对“人为自身立法”启蒙理想的背叛? n 唐娜 · 哈拉维的“赛博格”隐喻 u 核安全监管者已成为 “赛博格”: 人体与仪器融合 , 人脑与 AI 决策系统共 生。这种融合模糊了传统的主体 - 客体边界。 u 传感器、 算法、 操作员共同构成监管 “行动元” , 人不再是唯一责任主体。 u 若 AI 误判导致事故 , 责任应归于: 数据缺陷?算法偏见?执行人? 安全的本质是技术还是人性? 国际上核安全监管在 AI 的进 展 国家 / 组织 政策文件 技术应用 监管创新 国际合作 / 标准 挑战与趋势 IAEA - 《人工智能加速 “核 ” 的应用、 科学与技术》( 2022 年) - 《核安全文化》报告( 2023 年) - 全球 AI 核安全数据库 ( 2024 年上线) - 事故模拟与辐射防护 AI 工具推广 - 制定 AI 应用 5 大场 景分类标准 - 建立跨国技术援助机 制 - 牵头制定《核领域 AI 应 用安全导则》( 2025 年 发布) - 组织全球 AI 核安全竞赛 - 成员国技术水平差 异 - 标准执行一致性挑 战 NEA - 《用于核工程科学计算的人工智 能和机器学习基准》( 2024 年) - 《核安全监管数字化转型路线 图》 ( 2024 年) - 核工程 AI 模型评估平台 (覆盖 12 项指标) - 数字孪生技术标准化试点 - 推动 “监管科技 ” ( RegTech ) 应用 - 建立 AI 监管案例库 - 与 NRC 、 ONR 合作制 定 AI 监管原则 - 发布《核领域 AI 伦理指 南》( 2024 年) - 数据格式不兼容 - 伦理框架全球化挑 战 美国 - 《在核应用中开发人工智能系统 的考虑因素》( 2024 年 9 月, NRC 联合英加发布) - 《先进核能法案》( 2024 年) - 《 AI 系统故障安全协议》 ( 2024 年 10 月) - 阿贡国家实验室 AI 分子 动力学模拟平台缩短燃料研 发周期 - 田湾核电站智能诊断算法 提升故障预测准确率 30% - NRC 成立人工智能 管理委员会 ,开发 AI 工具分析运行数据 - 2024 年通过机器学 习识别 3 起设备故障 风险 - 主导 NEA 《核工程科学 计算 AI 基准》( 2024 年) - 与英加联合制定 AI 全生 命周期管理原则 - 数据敏感性限制模 型训练规模 - 推动 “动态监管框 架 ” 与 “预测性治 理 ” 转型 中国 - 《关于进一步加强核电运行安全 管理的指导意见》( 2018 年) - 《核安全与放射性污染防治 “十四五 ” 规划》 - 中国核动力研究设计院 PRID 平台实现设备状态实 时监测(效率提升 40% ) - 中核集团 ERDB 系统减少 维修成本 20% - 华北核与辐射安全监 督站建成核安全设备智 慧监督平台(覆盖 12 家核设施) - 参与 IAEA 《核领域 AI 应用安全导则》( 2025 年草案) - 与法国共享华龙一号监 管经验 - 自主算法研发与国 际标准接轨 - 群堆协同运维技术 突破 世界主要核电国家和组织在 AI 方面的进展情况 国家 / 组织 政策文件 技术应用 监管创新 国际合作 / 标准 挑战与趋势 法国 - 《欧盟人工智能法案》 ( 2023 年 ,核安全列为 “高风险 ” 类别) - 《核安全与辐射防护监察 长报告》( 2023 年) - EDF 弗拉芒维尔 EPR 项目 AI 优化反应堆热效率 1.2% - ASN 参与 Nuward 小型 堆 AI 非能动安全系统设计 - 采用 “风险分级 ” 监管模式 ,要求第 三方评估 AI 安全 案例 - 主导欧盟 AI 伦理 框架 - 与中国合作 AP1000 、 EPR 监管 经验交流 - 平衡技术创 新与伦理争议 - 推动欧盟统 一监管标准 韩国 - 《第四次工业革命战略》 ( 2018 年) - 《核电站专用 AI 平台建 设计划》( 2024 年) - 全球首个核电站专用 AI 平 台( 2025 年 7 月完成训 练) - Naver 云 Hyperclova X 模型支持 7 大业务领域 - 建立内部隔离网 络保障核数据安全 - 2024 年启动 AI 伦理审查机制 - 与日本合作福岛核 废水 AI 监测技术 - 参与 IAEA 核安全 文化全球数据库建设 - 超大型模型 训练资源需求 - 跨国数据共 享障碍 英国 - 《以支持创新为导向的人 工智能监管办法》( 2024 年) - 《监管沙盒机制》 ( 2024 年) - 3 个核电站 AI 试点项目 (设备预测性维护、应急响 应) - 罗尔斯 ・ 罗伊斯小型堆 AI 控制系统研发 - ONR 设立 “监 管沙盒 ” 允许受控 环境测试 AI 技术 - 2024 年批准 3 个试点项目 - 与 NRC 、 CNSC 联合制定 AI 监管原 则 - 参与 NEA 核工程 AI 基准制定 - 中小企业技 术应用门槛 - 跨境数据流 动合规性挑战 世界主要核电国家和组织在 AI 方面的进展情况 国家 / 组织 政策文件 技术应用 监管创新 国际合作 / 标准 挑战与趋势 加拿 大 - 《 BWRX-300 小型 堆 AI 应用审查指南》 ( 2024 年) - 《核安全与安保政策 声明》( 2023 年修 订) - GEH 的 BWRX- 300 小型堆 AI 反 应堆控制技术 - 阿冈昆学院 AI 核 应急模拟系统研发 - 与 NRC 合作审 查小型堆 AI 安 全性 - 2024 年启动 AI 人才培训计划 - 加入美英加联合 AI 监管 工作组 - 参与 IAEA 核安全培训 体系标准化 - 北极地区特殊 环境 AI 适应性 - 原住民社区数 据隐私争议 俄罗 斯 - 暂无专门政策文件 - 《北极浮动核电站环 境监测计划》( 2024 年) - 北极浮动核电站 AI 环境监测系统 - Rosatom 探索 AI 驱动的放射性废物 处理技术 - 采用 “渐进式” 技 术验证流程 - 2024 年成立 AI 伦理咨询委员 会 - 与白俄罗斯合作核电站 AI 运维技术 - 参与金砖国家核安全合 作机制 - 技术引进与自 主创新平衡 - 国际制裁对技 术合作的影响 日本 - 暂无专门政策文件 - 《福岛核废水处理 AI 监测方案》( 2024 年修订) - 东京电力公司 AI 图像识别监测放射 性物质浓度 - 三菱重工 AI 核燃 料运输机器人研发 - 2024 年启动 AI 安全评估试点 - 建立 “人 - AI 协同” 操作规范 - 与韩国合作核设施延寿 AI 技术 - 参与 IAEA 核安全文化 全球倡议 - 公众对 AI 信 任度不足 - 核安全数据透 明度争议 世界主要核电国家和组织在 AI 方面的进展情况 u 自 2020 年以来 , IAEA 多次 组织召开交流与合作会议、 编制技术文件和出版物 , 推 动人工智能在核能领域的标 准制定和创新应用。 u 将于 2025 年 12 月 3-4 日在其维也纳举办首届人工智能与核能国际 专 题讨论会 , 探讨核能如何有助于满足推动人工智能发展的数据 中心 日益增长的电力需求 , 以及人工智能支持核电行业的多种方 式 (一) 国际原子能机构( IAEA ) n 2024 年发布报告《用于核工程科学计算的人工智能和机器学习 基准》( NEA/WKP(2023)1 ) ,概述核工程科学计算中使用 人 工智能和机器学习的基准规范。 人工智能和机器学习技术可以用于核反应堆设计、核燃 料 管理、核安全评估等多个方面 ,通过优化算法和模型 , 提 高计算精度和效率。 详细介绍了用于评估人工智能和机器学习算法性能的基准 测试方法 ,确保这些技术在核工程中的可靠性和有效性。 报告还展望了人工智能在核能领域的未来发展方向 ,包 括 智能核电站、 自主运行系统等 ,为核能行业的智能化 转型 提供了技术支持和指导。 (二) 国际经合组织核能署( NEA ) u 2022 年 NRC 经过历时两年的研究发 布了《数字孪生技术在核能领域应用 的监管考虑》等几个技术文件。 探 讨 了 DT 技术在核应用中对核管理 委员 会监管活动的潜在影响。 本报 告描述 了核 DT 系统及其在核电厂 应用中的 能力 , 随后确定和讨论了 一些值得特 别考虑和提供实施机会 的管制活动支 持 DT 的技术和能力。 (三)美国核管会( NRC ) u2023 年发布《 2023-2027 财年人工智能战 略 规划》 , 见解一是确立五个目标: ① 确保 NRC 为涉及 AI 的监管决策做好准 备 ② 建立审查 AI 应用的组织框架 ③ 加强和扩大 AI 合作伙伴关系 ④ 培养精通 AI 的员工队伍 ⑤ 追求在 NRC 内部建立 AI 基础的实践案 (三)美国核管会( NRC ) AI 及自主化水平分级 商业核活动中 AI 及自主化技术的潜在应用程度描 述 LEVEL0 : 未使用( Not used ) 在系统和工艺中没有融合 AI 或自主化。 LEVEL1 : 洞察( Insight ) (机器辅助人类决策) 系统中融合了 AI , 在不影响设施安全 / 安保和控 制 的前提下 , 用于优化 、 操作指导或业务流程 自动 化。 LEVEL2 : 协作( Collaboration ) (机器增强人类决策) 系统融合了 AI , 算法提出的建议可能影响设施安 全 / 安保和控制 , 由人类决策者审查和执行。 LEVEL3 : 操作( Operation ) (人类监督下的机器决策) 系统融合了 AI 和自主化 , 在人类监督下 , 算法自 动 进行可能影响设施安全 / 安保和控制决策或执 行相 关操作。 LEVEL4 : 完 全 自 主 化 ( F u l l y Autonomous ) (无人类干预的机器决策) 系统采用完全自主化的 AI , 算法在不依赖人类干 预 或监督的情况下进行可能影响设施安全 / 安保 和控 制的操作、 控制和智能调节行为。 见解二提出商业 核 活动中 AI 自主 化水 平分级概念 , 共 5 层。 • 应用水平越高, 表明对人工干 预或人工监督 的依赖更少, 因此可能需要 对 AI 系统进行 更严格的监管 审查。 (三)美国核管会( NRC ) l 2024 年发布《推进美国核管理委员会中人工智 能的应用》 , 描述其将如何利用 AI 技术提升 自 身工作效率和决策质量的综合性报告。 NRC 积极探讨 AI 在机构内部的应用场景 , 最 终提出了 36 个与现有 AI 工具相匹配的 潜在应 用案例 计划采取一系列措施推进 AI 技术应用 ,包 括 制定 AI 战略、 加强数据管理、 提升员 工技能 等等。 NRC 将投资基础 AI 工具开发 , 以促进 AI 技术 的学习和应用 , 并强调领导层参与的 重要性 以及与联邦政府其他机构合作的价 值 (三)美国核管会( NRC ) u 2024 年 9 月 ,加拿大核安全委员会 (CNSC) 、英国核监管 办 公室 (ONR) 及美国核管会( NRC )联合发布《开发核 应用人 工智能系统的考虑》。 强调了确保核设施应用 AI 技术的安全与安保方面关键 考 虑因素 ,包括 AI 系统的架构、生命周期管理以及 人类与 组织因素的影响。 特别关注了 AI 系统带来的新挑战 ,例如人机协作、 系统 监控及模块化设计的重要性, 同时指出了对 AI 伦理、性 能验证与风险管理的关注点。 (四)多国机构 核安全监管信息化工作汇报 2020 年 7 月 , 国家标准管理委员会等五部门联合印发《国家新一代人工智 能标准体系建设指南》 ,提出加强人工智能领域标准化顶层设计 ,推动 人 工智能产业技术研发和标准制定 , 促进产业健康可持续发展。 2023 年 7 月 , 国家网信
下载文档到本地,方便使用
共 60 页, 还有 1 页可预览, 继续阅读
文档评分
请文明评论,理性发言.