GB/T 45081-2024 人工智能 管理体系
GB/T 45081-2024 Artificial intelligence—Managment system
基本信息
本文件适用于提供或使用人工智能系统的产品或服务的组织。本文件旨在帮助组织负责任地开发、提供或使用人工智能系统,以实现其目标,并满足适用的法规要求,以及相关方的义务和期望。
本文件适用于各种规模、类型和性质的提供或使用人工智能系统产品或服务的组织。
发布历史
-
2024年11月
研制信息
- 起草单位:
- 中国电子技术标准化研究院、广州赛西标准检测研究院有限公司、蚂蚁科技集团股份有限公司、华为技术有限公司、深圳云天励飞技术股份有限公司、中国科学院软件研究所、阿里云计算有限公司、罗克佳华科技集团股份有限公司、广东粤电信息科技有限公司、中国南方电网有限责任公司超高压输电公司、OPPO广东移动通信有限公司、深圳市优必选科技股份有限公司、上海燧原科技股份有限公司、北京赛西认证有限责任公司、科大讯飞股份有限公司、浪潮软件科技有限公司、上海商汤智能科技有限公司、上海市人工智能行业协会、上海计算机软件技术开发中心、山东省计算中心(国家超级计算济南中心)、万达信息股份有限公司
- 起草人:
- 孙宁、黄胜华、杨舟、马万钟、林冠辰、郑文先、孟令中、徐浩、饶雪、李玮、薛学琴、贾一君、沈芷月、张万里、刘张宇、王宁、李根、梁乔玲、梅敬青、蒋燕、孙佩、纪元隆、乔玉平、杨彤晖、钟俊浩、林一伟、蒋慧、吴庚、陈敏刚、高永超、童庆
- 出版信息:
- 页数:45页 | 字数:81 千字 | 开本: 大16开
内容描述
ICS35.020;03.100.70
CCSL01
中华人民共和国国家标准
GB/T45081—2024/ISO/IEC42001:2023
人工智能管理体系
Artificialintelligence—Managmentsystem
(ISO/IEC42001:2023,Informationtechnology—Artificialintelligence—
Managementsystem,IDT)
2024⁃11⁃28发布2024⁃11⁃28实施
国家市场监督管理总局
国家标准化管理委员会发布
GB/T45081—2024/ISO/IEC42001:2023
目次
前言··························································································································Ⅲ
1范围·······················································································································1
2规范性引用文件········································································································1
3术语和定义··············································································································1
4组织环境·················································································································4
4.1理解组织及其环境·······························································································4
4.2理解相关方的需求和期望······················································································5
4.3确定人工智能管理体系的范围················································································5
4.4人工智能管理体系·······························································································5
5领导作用·················································································································5
5.1领导作用和承诺··································································································5
5.2人工智能方针·····································································································6
5.3岗位、职责和权限·································································································6
6策划·······················································································································6
6.1应对风险和机会的措施·························································································6
6.2人工智能目标及其实现的策划················································································8
6.3变更的策划········································································································9
7支持·······················································································································9
7.1资源·················································································································9
7.2能力·················································································································9
7.3意识·················································································································9
7.4沟通·················································································································9
7.5文件化信息·······································································································10
8运行·····················································································································10
8.1运行的策划和控制······························································································10
8.2人工智能风险评估······························································································11
8.3人工智能风险应对······························································································11
8.4人工智能系统影响评估························································································11
9绩效评价···············································································································11
9.1监视、测量、分析和评价························································································11
9.2内部审核··········································································································11
9.3管理评审··········································································································12
10改进····················································································································12
Ⅰ
GB/T45081—2024/ISO/IEC42001:2023
10.1持续改进········································································································12
10.2不符合和纠正措施····························································································12
附录A(规范性)参考控制目标与控制·············································································14
附录B(规范性)人工智能控制的实施指南·······································································17
B.1概述···············································································································17
B.2与人工智能相关的方针·······················································································17
B.3内部组织·········································································································18
B.4人工智能系统的资源··························································································19
B.5评估人工智能系统的影响····················································································21
B.6人工智能系统生存周期·······················································································24
B.7人工智能系统的数据··························································································29
B.8人工智能系统相关方的信息·················································································30
B.9人工智能系统的使用··························································································32
B.10第三方及客户关系····························································································34
附录C(资料性)潜在的与人工智能相关的组织目标和风险源···············································36
C.1概述···············································································································36
C.2目标···············································································································36
C.3风险源············································································································37
附录D(资料性)跨领域或跨行业使用人工智能管理体系·····················································38
D.1概述···············································································································38
D.2人工智能管理体系与其他管理体系的集成·······························································38
参考文献····················································································································40
Ⅱ
GB/T45081—2024/ISO/IEC42001:2023
前言
本文件按照GB/T1.1—2020《标准化工作导则第1部分:标准化文件的结构和起草规则》的规
定起草。
本文件等同采用ISO/IEC42001:2023《信息技术人工智能管理体系》。
本文件做了下列最小限度的编辑性改动:
——为与现有标准体系保持一致,将标准名称改为《人工智能管理体系》。
请注意本文件的某些内容可能涉及专利。本文件的发布机构不承担识别专利的责任。
本文件由全国信息技术标准化技术委员会(SAC/TC28)提出并归口。
本文件起草单位:中国电子技术标准化研究院、广州赛西标准检测研究院有限公司、蚂蚁科技集团
股份有限公司、华为技术有限公司、深圳云天励飞技术股份有限公司、中国科学院软件研究所、阿里云
计算有限公司、罗克佳华科技集团股份有限公司、广东粤电信息科技有限公司、中国南方电网有限责任
公司超高压输电公司、OPPO广东移动通信有限公司、深圳市优必选科技股份有限公司、上海燧原科技
股份有限公司、北京赛西认证有限责任公司、科大讯飞股份有限公司、浪潮软件科技有限公司、上海商
汤智能科技有限公司、上海市人工智能行业协会、上海计算机软件技术开发中心、山东省计算中心(国
家超级计算济南中心)、万达信息股份有限公司。
本文件主要起草人:孙宁、黄胜华、杨舟、马万钟、林冠辰、郑文先、孟令中、徐浩、饶雪、李玮、薛学琴、
贾一君、沈芷月、张万里、刘张宇、王宁、李根、梁乔玲、梅敬青、蒋燕、孙佩、纪元隆、乔玉平、杨彤晖、钟俊浩、
林一伟、蒋慧、吴庚、陈敏刚、高永超、童庆。
Ⅲ
GB/T45081—2024/ISO/IEC42001:2023
人工智能管理体系
1范围
本文件为在组织范围内建立、实施、维护和持续改进人工智能管理体系规定了要求并提供了指南。
本文件适用于提供或使用人工智能系统的产品或服务的组织。本文件旨在帮助组织负责任地开
发、提供或使用人工智能系统,以实现其目标,并满足适用的法规要求,以及相关方的义务和期望。
本文件适用于各种规模、类型和性质的提供或使用人工智能系统产品或服务的组织。
2规范性引用文件
下列文件中的内容通过文中的规范性引用而构成本文件必不可少的条款。其中,注日期的引用文
件,仅该日期对应的版本适用于本文件;不注日期的引用文件,其最新版本(包括所有的修改单)适用于
本文件。
ISO/IEC22989:2022信息技术人工智能人工智能概念和术语(Informationtechnology—Ar⁃
tificialintelligence—Artificialintelligenceconceptsandterminology)
3术语和定义
ISO/IEC22989:2022界定的以及下列术语和定义适用于本文件。
3.1
组织organization
为实现目标(3.6),由职责、权限和相互关系构成自身功能的一个人或一组人。
注1:组织的概念包括但不限于个体经营者、公司、集团公司、商行、企事业单位、监管机构、合伙企业、慈善机构或研
究机构,或上述组织的部分或组合,无论是否具有法人资格,公有或私有。
注2:如果组织是大型实体的某个组成部分,那么术语“组织”仅指在人工智能管理体系(3.4)范围内的这个组成
部分。
3.2
相关方interestedparty
能够影响决策或活动、受决策或活动影响或自认为受决策或活动影响的个人或组织(3.1)。
注:ISO/IEC22989:2022的5.19中提供了人工智能相关方的概述。
3.3
最高管理者topmanagement
在最高层指挥和控制组织(3.1)的一个人或一组人。
注1:最高管理者有权在组织内部授权和提供资源。
注2:如果管理体系(3.4)的范围仅覆盖组织的某个组织部分,那么最高管理者是指指挥和控制该部分的一个人或
一组人。
3.4
管理体系managementsystem
组织(3.1)为确立方针(3.5)和目标(3.6)以及实现这些目标的过程(3.8)所形成的相互关联或相互
作用的一组要件。
1
GB/T45081—2024/ISO/IEC42001:2023
注1:一个管理体系可能针对一个或几个主题。
注2:管理体系要件包括组织的结构、岗位和职责、策划和运行。
3.5
方针policy
由最高管理者(3.3)正式表述的组织(3.1)的意图和方向。
3.6
目标objective
要实现的结果。
注1:目标可能是战略的、战术的或运行的。
注2:目标可能涉及不同的主题(如财务、健康和安全、环境)。它们可能存在于不同层面,诸如组织整体层面或项
目、产品或过程(3.8)层面。
注3:目标能用其他方式表述,如:预期的结果、宗旨、运行准则,人工智能目标或使用其他有类似含义的词(如:终点
或指标)。
注4:在人工智能管理体系(3.4)中,组织(3.1)设定的人工智能目标与人工智能方针(3.5)保持一致,以实现特定的
结果。
3.7
风险risk
不确定性的影响。
注1:影响是对预期的偏离——正面的或负面的。
注2:不确定性是一种状态,是指对某个事件、事件的后果或可能性缺乏甚至部分缺乏相关信息、理解或知识。
注3:通常,风险以潜在事件(见GB/T23694—2013中的定义)和后果(见GB/T23694—2013中的定
义)或二者的组合来描述其特性。
注4:通常,风险以某个事件的后果(包括情况的变化)及其发生的可能性(见GB/T23694—2013中的定义)
的组合来表述。
3.8
过程process
使用或转化输入以实现结果的一组相互关联或相互作用的活动。
注:某个过程的结果是称为输出,还是称为产品或服务,取决于相关语境。
3.9
能力competence
应用知识和技能实现预期结果的本领。
3.10
文件化信息documentedinformation
组织(3.1)需要控制和维护的信息及其载体。
注1:文件化信息能够以任何形式和载体存在,且来源不限。
注2:文件化信息可能涉及:
——管理体系(3.4),包括相关过程(3.8);
——为组织运行而创建的信息(文件);
——实现的结果的证据(记录)。
3.11
绩效performance
可测量的结果。
注1:绩效可能涉及定量的或定性的结果。
注2:绩效可能与活动、过程(3.8)、产品、服务、体系或组织(3.1)的管理有关。
2
GB/T45081—2024/ISO/IEC42001:2023
注3:在本文件中,绩效既指使用人工智能系统取得的结果,也指与人工智能管理体系(3.4)相关的结果。该术语的
正确解释从其使用的环境中得出。
3.12
持续改进continualimprovement
提高绩效(3.11)的循环活动。
3.13
有效性effectiveness
完成策划的活动和实现策划的结果的程度。
3.14
要求/需求requirement
规定的、不言而喻的或有义务履行的需求或期望。
注1:不言而喻的或有义务履行的需要或期望是指需求。其中,“不言而喻”是指组织(3.1)和相关方(3.2)的惯例或
一般做法,不言而喻的需求或期望是不用说就明白的。
注2:规定的需要或期望是指要求,也就是符合GB/T1.1中定义的要求,即表达声明符合该文件需要满足的客观可
证实的准则。
3.15
符合conformity
满足要求(3.14)。
3.16
不符合nonconformity
未满足要求(3.14)。
3.17
纠正措施correctiveaction
为消除不符合(3.16)的原因并防止再次发生而采取的措施。
3.18
审核audit
获取审核证据并对其进行客观评价,以确定审核准则满足程度所进行的系统的、独立的过
程(3.8)。
注1:审核可能为内部(第一方)审核或外部(第二方或第三方)审核,也可能为多体系审核(合并两个或多个主题)。
注2:内部审核由组织(3.1)自行实施或代表组织的外部机构实施。
注3:“审核证据”和“审核准则”的定义见ISO19011。
3.19
测量measurement
确定数值的过程(3.8)。
3.20
监视monitoring
确定体系、过程(3.8)或活动的状态。
注:确定状态可能需要检查、监督或严格观察。
3.21
控制control
〈风险〉保持和/或改变风险(3.7)的措施。
注1:控制包括但不限于保持和/或改变风险的任何过程、策略、措施、操作或其他条件和/或行动。
注2:控制并非总能发挥预期或假定的改变效果。
[来源:GB/T24353—2022,3.8,有修改]
3
GB/T45081—2024/ISO/IEC42001:2023
3.22
治理层governingbody
对组织的绩效和符合性负责的一个人或一组人。
注1:并非所有组织,特别是小型组织,都有一个独立于最高管理者的治理层。
注2:治理层包括但不限于董事会、董事会委员会、监事会、受托人或监督人。
[来源:ISO/IEC38500:2015,2.9,有修改]
3.23
信息安全informationsecurity
对信息的保密性、完整性和可用性的保全。
注:另外,还能包括诸如真实性、可问责性、抗抵赖性和可靠性等其他特性。
[来源:GB/T29246—2023,3.28]
3.24
人工智能系统影响评估AIsystemimpactassessment
由开发、提供或使用人工智能产品或服务的组织识别、评估和解决对个人和(或)群体和社会的影
响的正式的、文件化的过程。
3.25
数据质量dataquality
满足组织在特定情况下数据要求的数据特征。
[ISO/IEC5259⁃120243.4]
来源::,
3.26
适用性声明statementofapplicability
所有必要控制(3.21),以及包括或排除控制的理由的文件。
注1:组织可能不需要附录A中列出的所有控制,甚至可能超出附录A中所列的控制,并由组织自己制定额外的
控制。
注2:所有已识别的风险,组织按本文件的要求形成文件。所有已识别的风险和为解决这些风险而制定的风险管理
措施(控制)反映在适用性声明中。
4组织环境
4.1理解组织及其环境
组织应确定与其宗旨相关的,并影响其实现人工智能管理体系预期结果的能力的内部和外部
事项。
组织应确定气候变化是否是一个相关因素。
组织应顾及组织开发、提供或使用人工智能系统的预期目的。组织应确定其在人工智能系统中的
角色。
注1:组织确定其相对于人工智能系统的角色有助于理解组织及其环境。这些角色包括但不限于以下一种或多种:
——人工智能提供方,包括人工智能平台提供方、人工智能产品或服务提供方;
——人工智能生产方,包括人工智能开发方、人工智能设计方、人工智能运营方、人工智能测试和评估机构、人
工智能部署方、人工智能人因研究机构、领域专家、人工智能影响评估机构、采购方、人工智能治理和监督
专业机构;
——人工智能客户,包括人工智能用户;
——人工智能合作伙伴,包括人工智能系统集成商和数据提供商;
——人工智能主体,包括数据主体和其他主体;
——相关监管机构,包括方针制定者和监管方。
4
GB/T45081—2024/ISO/IEC42001:2023
ISO/IEC22989:2022提供了这些角色的详细描述。此外,角色类型及其与人工智能系统生存周
期的关系也在美国国家标准与技术研究院(NIST)发布的《人工智能风险管理框架》中进行了描述。组
织的角色能确定本文件中的要求和控制的适用性和适用性程度。
注2:根据本条要解决的外部和内部因素可能因组织的角色和管辖权及其对实现人工智能管理体系预期结果的能
力的影响而有所不同。这些包括但不限于如下内容。
a)外部环境相关的考虑,如:
1)适用的法律要求,包括禁止使用人工智能;
2)监管机构的方针、指南和决定对人工智能系统开发和使用中法律要求的解释或执行产生影响;
3)与人工智能系统的预期目的和使用相关的激励或后果;
4)人工智能开发和使用方面的文化、传统、价值观、规范和伦理;
5)使用人工智能系统的新产品和服务的竞争格局和趋势。
b)内部环境相关的考虑,如:
1)组织环境、治理、目标(见6.2)、方针和程序;
2)合同义务;
3)拟开发或使用人工智能系统的预期目的。
注3:角色的确定能通过与组织处理的数据类别相关的义务来确定[例如,在处理个人可识别信息时,个人可识别信
息处理者或个人可识别信息控制者]。有关个人可识别信息和相关角色,见ISO/IEC29100。角色也能通过特
定于人工智能系统的法律要求来了解。
4.2理解相关方的需求和期望
组织应确定:
——与人工智能管理体系有关的相关方;
——这些相关方的有关需求;
——哪些需求将通过人工智能管理体系予以解决。
注:相关方能对气候变化提出需求。
4.3确定人工智能管理体系的范围
组织应确定人工智能管理体系的边界和适用性,以确定其范围。
组织应根据以下内容确定人工智能管理体系的范围:
——4.1提及的内部和外部因素;
——4.2提及的需求。
范围应作为文件化信息可获取。
人工智能管理体系的范围应根据本文件对人工智能管理体系、领导、策划、支持、运行、绩效、评价、
改进、控制和目标的要求确定组织的活动。
4.4人工智能管理体系
组织应按本文件的要求,建立、实施、维护和持续改进人工智能管理体系,包括所需的过程及其相
互作用。
5领导作用
5.1领导作用和承诺
最高管理者应通过以下方面证实其对人工智能管理体系的领导作用和承诺:
——确保制定人工智能方针(见5.2)和人工智能目标(见6.2),并与组织的战略方向一致;
5
GB/T45081—2024/ISO/IEC42001:2023
——确保将人工智能管理体系要求融入组织的业务过程;
——确保人工智能管理体系所需的资源可获取;
——就有效的人工智能管理的重要性以及符合人工智能管理体系要求的重要性进行沟通;
——确保人工智能管理体系实现其预期结果;
——指导和支持人员为人工智能管理体系的有效性作出贡献;
——促进持续改进;
——支持其他相关岗位在职责范围内证实其领导作用。
注1:本文件中提及的“业务”能作广义解释,指那些与组织存在目的相关的核心活动。
注2:在组织内部建立、鼓励和构建一种文化,以负责任的方式使用、开发和治理人工智能系统,这是最高管理层承
诺和领导力的重要体现。确保意识到并遵守这种负责任的方法,并通过领导支持有助于人工智能管理体系的
成功。
5.2人工智能方针
最高管理者应确立人工智能方针,该方针:
a)适合于组织的宗旨;
b)为设定人工智能目标提供框架(见6.2);
c)包括满足适用需求的承诺;
d)包括持续改进人工智能管理体系的承诺。
人工智能方针应:
——作为文件化信息可获取;
——参考其他相关的组织方针;
——在组织内予以沟通;
——视情况,可被相关方获取。
表A.1中A.2提供了制定人工智能方针的控制目标和控制。这些控制的实施指南见附录B的B.2。
注:ISO/IEC38507提供了组织在制定人工智能方针时的注意事项。
5.3岗位、职责和权限
最高管理者应确保在组织内部分配并沟通相关岗位的职责和权限。
最高管理者应分配职责和权限,以便:
a)确保人工智能管理体系符合本文件的要求;
b)向最高管理者报告人工智能管理体系的绩效。
注:表A.1中A.3.2提供了规定和分配岗位与职责的控制。B.3.2提供了该控制的实施指南。
6策划
6.1应对风险和机会的措施
6.1.1通则
在策划人工智能管理体系时,组织应根据4.1中提及的事项和4.2中提及的需求,并确定需要应对
的风险和机会以便:
——确保人工智能管理体系能够实现预期结果;
——预防或减少不利影响;
——实现持续改进。
6
GB/T45081—2024/ISO/IEC42001:2023
组织应建立和维护人工智能风险准则,以支持以下工作:
——区分可接受与不可接受的风险;
——进行人工智能风险评估;
——实施人工智能风险应对;
——评估人工智能风险的影响。
注1:ISO/IEC38507和ISO/IEC23894中提供了确定组织愿意追求或保留的风险数量和类型的考虑因素。
组织应根据以下因素确定风险和机会:
——人工智能系统的领域和应用环境;
——预期用途;
——4.1中描述的外部和内部环境。
注2:在人工智能管理体系的范围内能考虑不止一个人工智能系统。在这种情况下,针对每个人工智能系统或人工
智能系统组确定机会和用途。
组织应计划:
a)应对这些风险和机会的措施;
b)如何做:
1)将这些措施纳入其人工智能管理体系过程并加以实施;
2)评价这些措施的有效性。
组织应保留为识别和应对人工智能风险和机会而采取的措施的文件化信息。
注3:关于如何为开发、提供或使用人工智能产品、系统和服务的组织实施风险管理的指导见ISO/IEC23894。
注4:组织及其活动的环境会对组织的风险管理活动产生影响。
注5:不同部门和行业对风险的规定以及风险管理的设想可能有所不同。3.7中对风险的规范性规定允许对风险有
一个广泛的认识,以适应任何部门,如附录D中D.1中提到的部门。在任何情况下,作为风险评估的一部分,
组织的职责是首先采用适合其环境的风险观。这能包括通过人工智能系统为之开发和使用的部门所使用的
规定来看待风险,见ISO/IECGuide51中的规定。
6.1.2人工智能风险评估
组织应规定并建立人工智能风险评估过程,该过程应:
a)参考并符合人工智能方针(见5.2)和人工智能目标(见6.2);
注:在评估作为6.1.2d)1)中的后果时,组织能利用6.1.4所述的人工智能系统影响评估。
b)在策划上使重复的人工智能风险评估能够产生一致、有效和可比较的结果;
c)识别有助于或妨碍实现人工智能目标的风险;
d)分析人工智能风险,以便:
1)评估如果确定的风险成为现实,将对组织、个人和社会造成的潜在后果;
2)酌情评估已识别风险的现实可能性;
3)确定风险等级。
e)评价人工智能风险,以便:
1)将风险分析结果与风险准则(见6.1.1)进行比较;
2)对评估的风险进行优先排序,以便进行风险应对。
组织应保留有关人工智能风险评估过程的文件化信息。
6.1.3人工智能风险应对
考虑到风险评估结果,组织应确定人工智能风险应对过程,以便:
a)选择适当的人工智能风险应对方案;
7
GB/T45081—2024/ISO/IEC42001:2023
b)确定实施所选人工智能风险应对方案所必需的所有控制,并将这些控制与附录A中的控制
进行比较,以核实没有遗漏任何必要的控制;
注1:附录A提供了实现组织目标和处理与人工智能系统的设计和使用有关的风险的参考控制。
c)考虑附录A中与实施人工智能风险应对方案相关的控制;
d)确定除了附录A中的控制外,是否还需要其他控制,以实施所有风险应对备选方案;
e)参考附录B,了解b)和c)中确定的控制的实施指南;
注2:控制目标隐含在所选择的控制中。组织能根据需要选择附录A中列出的控制目标和控制。附录A中的控制
并非详尽无遗,可能还需要额外的控制目标和控制。如果需要附录A以外的不同或额外控制,组织能策划此
类控制或从现有来源获取。如适用,人工智能风险管理可纳入其他管理系统。
f)编制一份适用性声明,其中包含必要的控制[见b)、c)和d)],并说明纳入和排除控制的理由;
排除的理由能包括风险评估认为不需要的控制,以及适用的外部要求不需要(或属于例外情
况)的控制;
注3:组织能提供文件证明排除一般或特定人工智能系统控制目标的理由,不论是附录A中列出的还是组织自己制
定的。
g)制定人工智能风险应对办法。
获得指定管理层对人工智能风险应对计划和接受残余人工智能风险的批准。必要的控制应:
——与6.2中的目标相一致;
——作为文件化信息可获取;
——在组织内予以沟通;
——视情况,可被相关方获取。
组织应保留有关人工智能风险应对过程的文件化信息。
6.1.4人工智能系统影响评估
组织应制定一个过程,用于评估开发、提供或使用人工智能系统可能对个人和(或)群体和社会造
成的潜在影响。
人工智能系统影响评估应确定人工智能系统的部署、预期使用和可预见的滥用对个人和(或)群体
和社会造成的潜在影响。
影响评估应顾及人工智能系统的具体技术和社会环境以便人工智能系统可在管辖范围内部署和
适用。
人工智能系统影响评估的结果应记录在案。在适当情况下,能将人工智能系统影响评估的结果提
供给组织规定的相关方。
组织应在风险评估中考虑人工智能系统影响评估结果(见6.1.2)。表A.1中A.5提供了评估人工
智能系统影响的控制
定制服务
推荐标准
- QX/T 10.3-2019 电涌保护器 第3部分:在电子系统信号网络中的选择和使用原则 2019-12-26
- QX/T 146-2019 中国天气频道本地化节目播出实施规范 2019-12-26
- YB/T 4111-2019 铸口砖及座砖 2019-08-27
- YB/T 4001.1-2019 钢格栅板及配套件 第1部分:钢格栅板 2019-08-27
- QX/T 99-2019 人工影响天气安全 增雨防雹火箭作业系统安全操作要求 2019-12-26
- YB/T 113-2019 烧成微孔铝炭砖 2019-08-27
- YB/T 4144-2019 建立和控制原子发射光谱化学分析曲线规则 2019-08-27
- QX/T 17-2019 37mm高炮增雨防雹作业安全技术规范 2019-12-26
- YB/T 4143-2019 火花源原子发射光谱法测定固体金属均匀性检验方法 2019-08-27
- YB/T 4139-2019 连续铸钢电磁搅拌器 2019-08-27