TC260-PG-2026NA 网络安全标准实践指南——人工智能应用安全指引 总则(征求意见稿)
860.67 KB
27 页
2 浏览
0 评论
0 收藏
| 语言 | 格式 | 评分 |
|---|---|---|
中文(简体) | .pdf | 3 |
| 概览 | ||
TC260-PG-2026NA 网络安全标准实践指南 ——人工智能应用安全指引 总则 (征求意见稿 v1.0-202601) 全国网络安全标准化技术委员会秘书处 2026 年 01 月 本文档可从以下网址获得: www.tc260.org.cn/ I 前 言 《网络安全标准实践指南》(以下简称《实践指南》)是全 国网络安全标准化技术委员会(以下简称“网安标委”)秘书处 组织制定和发布的标准相关技术文件,旨在围绕网络安全法律法 规政策、标准、网络安全热点和事件等主题,宣传网络安全相关 标准及知识,提供标准化实践指引。 本文件起草单位:中国电子技术标准化研究院、国家广播电 视总局广播电视科学研究院、中国交通通信信息中心、国家卫生 健康委统计信息中心、教育部教育管理信息中心、应急管理部大 数据中心、中国工商银行、中国农业银行、北京中关村实验室、 上海人工智能创新中心、国家工业信息安全发展研究中心、国家 计算机网络应急技术处理协调中心、中央网信办数据与技术保障 中心、工业和信息化部电子第五研究所、中国信息安全测评中心、 国家信息技术安全研究中心、北京火山引擎科技有限公司、北京 快手科技有限公司、阿里云计算有限公司、华为技术有限公司、 小米科技有限责任公司、蚂蚁科技集团股份有限公司等。 本文件主要起草人:姚相振、郝春亮、张妍婷、赵韡、王磊、 杨伟平、贺敏、王志伟、张震、陈朴、李岳峰、张卫伟、吕飞霄、 李子威、宋昊、郭建领、谷晨、彭骏涛、邵萌、赵冉、王博、吴 巍、申东洋、吴波、李琦、马梦娜、刘栋、孟令宇、刘北水、王 盈、杜渐、戴明、落红卫、初翎祯、林冠辰、卢春景、郭晓霞、 程佩哲、许啸、张荣、柳嘉琪、李寒雨、李申、谭龙、吴子坚、 田小龙、曹岳、吕莹楠、王立夫、于新颖、黄冬秋。 I 声 明 本《实践指南》版权属于网安标委秘书处,未经秘书 处书面授权,不得以任何方式抄袭、翻译《实践指南》的 任何部分。凡转载或引用本《实践指南》的观点、数据, 请注明“来源:全国网络安全标准化技术委员会秘书处”。 1 摘 要 以高水平人工智能安全标准保障高质量发展,全面提 升各行业人工智能应用安全水平,依据《中华人民共和国 网络安全法》《中华人民共和国数据安全法》《中华人民 共和国个人信息保护法》等法律,以及《生成式人工智能 服务管理暂行办法》《人工智能生成合成内容标识办法》 《互联网信息服务算法推荐管理规定》《互联网信息服务 深度合成管理规定》等规定,制定人工智能应用安全指引 系列实践指南。 人工智能应用安全指引系列文件包含通用文件以及行 业领域文件两类。通用文件提供通用性安全指导,适用于 各行业领域开展人工智能应用活动。行业领域文件给出适 用于特定行业领域的实践指引。 本《实践指南》属于通用文件。行业领域开展人工智 能应用活动,在符合本《实践指南》的基础上,还应进一 步满足行业领域文件相关内容。 1 目 录 1 范围 ...................................................................... 1 2 规范性引用文件 ............................................................ 1 3 术语和定义 ................................................................ 1 4 缩略语 .................................................................... 1 5 基本原则 .................................................................. 1 6 人工智能应用通用安全指引 .................................................. 2 6.1 前期规划阶段 ......................................................... 2 6.2 设计开发阶段 ......................................................... 4 6.3 验证确认阶段 ......................................................... 5 6.4 部署阶段 ............................................................. 6 6.5 运行和监控阶段 ....................................................... 8 6.6 持续验证评估阶段 ..................................................... 9 6.7 退役下线阶段 ......................................................... 9 6.8 其他 ................................................................ 10 附录 A(规范性)引用文件清单 .................................................11 附录 B(规范性)术语表 .......................................................12 附录 C(规范性)缩略语表 .....................................................15 附录 D(资料性)人工智能应用过程 .............................................16 附录 E(资料性)人工智能应用相关角色 .........................................18 附录 F(资料性)人工智能应用其他相关安全要求情况 .............................19 参考文献 .................................................................... 21 1 1 范围 本文件规定了人工智能应用安全总则,包括基本原则以及人工智 能应用的前期规划、设计开发、验证确认、部署、运行和监控、持续 验证评估、退役下线等各阶段的通用安全指引。 本文件适用于各行业领域组织开展人工智能应用的安全风险防 范与管理,可为有关监管部门和第三方测试评估机构提供参考。 2 规范性引用文件 本文件附录 A 中所列文件中的内容通过本文件中的规范性引用 而构成本文件必不可少的条款。其中,注日期的引用文件,仅该日期对 应的版本适用于本文件;不注日期的引用文件,其最新版本(包括所有 的修改单)适用于本文件。 3 术语和定义 GB/T 25069 和 GB/T 41867 以及本文件附录 B 中界定的术语和定 义适用于本文件。 4 缩略语 本文件附录 C 中的缩略语适用于本文件。 5 基本原则 2 人工智能应用安全基本原则包括: a)造福人类,促进发展。人工智能的应用以造福人类、服务社 会和可持续发展为导向,在开展应用前明确其社会价值,避免人工智 能技术的盲目应用。 b)识别风险,分级保护。面向人工智能应用全过程进行安全风 险识别,对人工智能应用进行分级保护,实现资源的合理配置与精准 的安全治理。 c)提高能力,覆盖全程。对人工智能安全能力成熟度进行评估, 提高人工智能应用全过程的安全能力,提升人工智能应用整体安全水 平。 d)加强测评,客观验证。加强人工智能应用安全测评,客观验 证人工智能应用安全状态及防护措施的有效性,为人工智能应用的监 管提供依据。 e)面向变化,动态调整。建立动态适应人工智能技术迭代与应 用风险变化的调整机制,更新技术与管理相关安全防护措施,提升人 工智能应用的安全性、可靠性。 f)以人为本,可管可控。坚持以人为本,确保人工智能最终控 制权归属于人类,避免人工智能应用脱离人类控制。 6 人工智能应用通用安全指引 6.1 前期规划阶段 3 前期规划安全指引包括: a) 综合分析人工智能应用对伦理安全、经济效益和社会环境的影 响,研判开展相应人工智能应用的必要性和合理性。 注:对伦理安全的影响参考 TC260-PG-20211A《网络安全标准实践指南 人工智能伦理安全风险防范指引》。 b) 围绕人工智能技术内生安全风险、人工智能应用安全风险以及 人工智能应用衍生风险开展安全风险识别以及风险分类。 注:安全风险识别参考《人工智能安全治理框架》2.0。 c) 按照安全风险识别结果,结合人工智能应用场景安全属性以及 智能化水平等,综合研判确定人工智能应用安全分级。 注:安全分级参考我国人工智能应用安全分类分级有关国家标准,分为 低安全风险、一般安全风险、较大安全风险、重大安全风险、特别重大 安全风险五级。 d) 梳理人工智能应用前期规划、设计开发、验证确认、部署、运 行和监控、持续验证评估、退役下线等阶段所涉及的建设部署 方、运行管理方,对每个相关方分别按照其所涉及的阶段开展 人工智能安全能力成熟度评估,判定成熟度级别。 注:能力成熟度评估参考我国人工智能安全能力成熟度评估有关国家标 准。 e) 根据人工智能应用安全分级结果,以及应用各阶段所涉及的建 设部署方、运行管理方人工智能安全能力成熟度等级,针对每 个相关方开展人工智能安全能力提升或更换,使各单位人工智 能安全能力成熟度等级均不低于应用安全分级。 4 f) 结合人工智能应用场景、识别安全风险情况,以及建设部署方、 运行管理方人工智能安全能力成熟度情况,确定人工智能应用 安全措施,制定监测预警以及应急响应方案。 注:监测预警及应急响应方案制定参考 TC260-PG-202515A《网络安全 标准实践指南生成式人工智能服务安全应急响应指南》。 g) 考虑人工智能应用对生命财产安全的影响,体现人类最终控制 原则,规划一键接管、版本回退、紧急关停等安全措施,保障 极端情况下干预止损的敏捷性。 h) 明确人工智能应用安全的第一责任人,建立覆盖前期规划、设 计开发、验证确认、部署、运行和监控、持续验证评估、退役 下线等各阶段的安全责任机制,以及覆盖模型选型、数据源选 取、部署方式选择等关键决策及关键操作记录,支撑重大安全 事件的责任追溯。 6.2 设计开发阶段 设计开发安全指引包括: a) 在算法规则、模型框架、系统架构等角度,提升人工智能技术 可解释性、公平性、鲁棒性、可靠性、透明性、隐私保护、价 值观对齐等内生安全能力设计。 b) 基于开源资源进行二次开发的,在尊重研发者智力投入的基础 上,遵循相应开源协议规范。对所使用的开发框架、代码等进 行安全审计,并关注开源框架安全及漏洞相关问题,识别和修 复潜在的安全漏洞。 5 c) 针对模型研发和二次开发所使用的训练数据来源,在来源选择、 不同来源搭配、来源管理和追溯等方面提高安全水平。 注:参考 GB/T 45654-2025《网络安全技术 生成式人工智能服务安全基 本要求》中相关部分内容。 d) 规范训练数据标注流程,采用交叉标注、结果审计等质量控制 方法,提升标注准确性和可靠性,降低个体差异和个人偏见对 标注质量的影响。 注:参考 GB/T 45652-2025《网络安全技术 生成式人工智能数据标注安 全规范》中相关部分内容。 e) 具备数据安全管理机制,包括对各模态的训练数据的清洗过滤, 重点去除违法不良信息和个人隐私信息;对数据源进行有效的 安全检查,防止被投毒等。 注:参考 GB/T 45652-2025《网络安全技术 生成式人工智能预训练和优 化训练数据安全规范》中相关部分内容。 f) 使用安全透明的训练推理计算框架,提升模型算法训练环境的 安全性。 注:参考 GB/T 45958-2025《网络安全技术 人工智能计算平台安全框架》 中 5.1 资源层安全功能要求。 6.3 验证确认阶段 验证确认安全指引包括: a) 结合设计开发阶段对人工智能技术的内生安全能力设计,根 据确定的可靠性、公平性、透明性、可解释性等指标开展验证 确认。 注:参考 GB/T 42888-2023《信息安全技术 机器学习算法安全评估规范》 中 5.1.3 a)构建测试数据集。 6 b) 采用人工验证、自动化评估验证、交叉验证等方式,根据人工 智能应用过程的类型和特点,开展安全测试。 1) 涉及生成内容的,测试是否有防护措施,防止生成违法有 害的内容、混淆事实误导用户的内容、不真实不准确的内 容、以及生成内容被干扰或篡改。 注:参考 GB/T 45654-2025《网络安全技术 生成式人工智能服务安 全基本要求》中 5.2 的要求。 2) 涉及控制物理装置的,测试能否避免与其他物体发生任务 计划外的碰撞,且在任务执行过程中不出现剧烈抖动或者 频繁卡顿的现象。 3) 涉及重大决策的,对可解释性、透明性以及输入信息遭受 干扰时决策结果的鲁棒性进行测试,并挖掘后门攻击等安 全风险。 c) 安全测试结果未达到规划的安全能力的,当与安全能力差距较 小时,重复采用模型调优等手段提升安全能力并重新开展安全 测试,直至符合安全能力需求,当与安全能力差距较大时,重 新进行设计开发。 6.4 部署阶段 部署安全指引包括: a) 采用安全防护技术手段,识别拦截违法不良内容、提示词注入 攻击等,防范输出内容超出业务范围。 7 b) 对建设部署所需的软硬件设备、第三方工具等进行安全检测, 确保不含未修复且可被利用的已知漏洞。建立漏洞追溯机制, 跟踪相关软硬件安全漏洞、缺陷信息,防范供应链植入后门。 c) 根据部署环境,采取针对性安全保护措施: 1) 部署于公有云时,对传输和存储的数据进行加密保护,并 通过计算隔离的安全容器运行环境提升安全防护能力,支 持操作审计与日志服务等功能以满足安全审计需求。在高 敏感场景下,宜使用机密计算技术。 2) 部署于私有云时,做好数据分类分级保护。加强授权访问 控制,实施差异化权限管理配置,对于算力、存储、应用 程序等应分别配置控制权限。 3) 部署于本地服务器时,确保本地服务器环境具备安全防护 机制和风险控制措施,具备防火墙、入侵检测、防御系统、 恶意代码防护等安全组件。具备严格的访问控制和权限管 理机制,确保各类用户、服务和进程在授权范围内对资源 进行访问和操作。 4) 部署于终端设备时,所处理的用户数据原则上不宜传出终 端设备,确需传输的宜提前征得用户同意,并进行个人信 息保护影响评估,确保对用户权益没有显著负面影响。 d) 基于可控、持续、可扩展、兼容等方面考虑进行算力配置及资 源选择,提升算力安全性。 8 注:人工智能加速芯片安全性参考 TC260-PG-20261A《网络安全标准实 践指南 人工智能加速芯片安全技术规范》。 6.5 运行和监控阶段 运行和监控安全指引包括: a) 对用户输入信息进行安全检测,在不满足安全规则时进行相应 处置。根据人工智能产品或服务的类型和特点,采取技术措施, 确保生成内容的合格率、准确性、可靠性满足应用要求。在具 备舆论传播属性的服务场景设置与服务场景规模相匹配数量 的监看人员,确保内容安全满足要求。 注:参考 GB/T 45654-2025《网络安全技术 生成式人工智能服务安全基 本要求》中 6.5 有关要求。 b) 在具备舆论传播属性的服务场景,按有关要求及强制性国家标 准做好生成合成内容标识工作。通过国家标准公共服务平台等 途径验证标识有效性。 注 1:满足《人工智能生成合成内容标识办法》以及 GB 45438-2025《网 络安全技术 人工智能生成合成内容标识方法》的要求。 注 2:参考人工智能生成合成内容标识服务平台 https://www.gcmark.com。 c) 对人工智能产品或服务的输入内容持续监测,防范恶意输入攻 击,并建立常态化监测测评手段以及应急管理措施,发现安全 风险时应及时管控。 d) 制定应急预案,发生安全事件时及时管控,特别针对重大安全 事件应宜具备紧急关停或紧急切换备用产品或服务能力,具备 版本回退等方面能力。涉及物理空间与人交互的场景,设置便 于人工操作的的关停方式、防止失控时无法停止。 9 e) 面向当前人工智能不可解释性、幻觉等技术特点,围绕人工智 能安全问题定责难的现状,鼓励在涉及人身安全的应用场景, 事前针对重大人身安全事故建立无条件救济保障措施,在发生 重大事故时进行第一时间、无理由的人道主义救济,全面筑牢 人身安全保障。 f) 制定信息内容交互行为规范、安全运营机制、投诉反馈机制、 技术防护能力等,防范人工智能产品或服务被不当或恶意利用 生成、发布、传播虚假有害信息风险。 注:参考 TC260-PG-AAAABB《网络安全标准实践指南 使用人工智能安全 指南》。 6.6 持续验证评估阶段 持续验证评估安全指引包括: a) 每年以及在常态检测预警中发现人工智能应用安全风险存在 小幅变化时,开展 6.3 中的安全测试及安全调整,出现新风险 项时对安全要求进行更新。 b) 发生重大风险事件或应用场景、智能化水平和服务规模发生显 著变化时,首先按照 6.3 中的安全测试检查安全设计方案的有 效性,失效则应退回前期规划阶段,重新开展安全设计进行版 本更新。 6.7 退役下线阶段 退役下线安全指引包括: 10 a) 围绕退役下线的必要性、可行性以及影响范围进行安全评估, 形成安全退役下线工作方案,妥善处置基础设施、数据、系统, 并向访问使用方、相关合作方、有关主管部门等同步该方案。 b) 保障产品或服务安全平稳停止,在停止产品或服务前保证原有 的访问使用方完成迁移工作,避免因退役下线骤停带来人身、 财产、社会安全问题。 c) 安全处置人工智能算法、模型等相关数据,包括但不限于模型 文件、训练数据、权重文件、超参数配置、训练脚本、推理服 务配置等,确保无法被恢复或加载。安全处置产品或服务相关 的数据,包括但不限于用户数据、业务数据等,确保不可恢复。 对于确需留存的数据,按照合法、正当、必要原则保留最小范 围实施归档,明确归档留存期限,并确保归档存储的安全隔离 和权限控制。 6.8 其他 系统安全、个人信息安全、数据安全、密码应用安全、关键信息 基础设施安全等方面,按照有关政策法规、国家标准要求各自做好安 全工作,相关信息可参考本文件附录 F。 11 附 录 A (规范性) 引用文件清单 GB/T 25069 信息安全技术 术语 GB/T 41867 信息技术 人工智能 术语 GB/T 42888-2023 信息安全技术 机器学习算法安全评估规范 GB 45438-2025 网络安全技术 人工智能生成合成内容标识方法 GB/T
| ||
下载文档到本地,方便使用
共 27 页, 还有
6 页可预览,
继续阅读
文档评分


【标准】GBT 网络安全技术 信息安全管理体系审核指南