随着人工智能的广泛应用,国内外标准组织均成立专门的分委会或工作组重点聚焦人工智能标准研究与编制。在 ISO/IEC(国际标准化组织/国际电工委员会)、IEEE(电气与电子工程师协会)、NIST(美国国家标准与技术研究院)、ITU-T(国际电信联盟电信标准分局)等国际标准组织和国家人工智能总体组、TC28/SC42(全国信息技术标准化技术委员会人工智能分会)及 TC260(全国信息安全标准化技术委员会)均开展了大量的可信赖人工智能领域相关标准编制与研究工作。
ISO/IEC JTC 1建立独立的AI标准分委会(SC 42)并成立专门的可信赖AI工作组(WG 3)重点聚焦相应的标准研究与编制。2018年ISO/IEC专门成立了 SC 42 人工智能分技术委员会,重点围绕人工智能基础共性技术、关键通用技术、可信赖及人工智能应用等方面开展标准研制工作。ISO/IEC JTC 1 SC 42成立至今,已拥有35个积极成员(P成员,具有投票权)包括英国、德国、法国、日本、韩国、俄罗斯、印度、新加坡、中国等国家,15个观察成员(O成员,无投票权)包括阿根廷、印尼、新西兰等。现阶段注册标准编制专家近600人(其中欧美地区占据70%以上,美国专家200余位,中国专家60余位)。
ISO/IECJTC 1/SC 42下设5个工作组(WG,Work Group),1个咨询组,2个联合工作组,2个联络协调组。其中工作组包括WG 1(基础标准)、WG 2(数据)、WG 3(可信赖)、WG 4(用例与应用)、WG 5(人工智能计算方法和系统特征);1个咨询组AG 3(人工智能标准化路线图);同时分别与JTC 1的SC 7(软件和系统工程)、SC 40(IT 服务管理和 IT 治理)建立了联合工作组、JWG 2(基于人工智能的系统测试),与JTC 1的SC 27(信息安全、网络安全和隐私保护)、SC 38(云计算和分布式平台)建立联络协调组。
ISO/IEC JTC 1/SC 42/WG 3可信赖人工智能工作组的重点工作是探索在人工智能系统中建立信任的技术和方法,并对相关研究方法进行评估,以减少威胁和风险。其中明确了人工智能系统中透明度、偏见和鲁棒性等问题,并研究如何通过风险评估标准从技术上解决上述问题。该工作组还负责收集人工智能系统在社会伦理与道德等方面的反馈,将相关反馈反映到正在制定的解决方案中。该工作组已经发布6项标准,在研6项标准。
中科院软件所可信赖人工智能研究团队拥有3名中国区专家并积极参与WG 3可信赖领域标准的研发与编制工作。从2018年WG 3可信赖工作组成立伊始,薛云志研究员作为首批中国区专家开展相关工作;孟令中副研究员于2020年成为WG 3/WG 5工作组中国区专家;董乾副研究员于2022年成为JWG 2/WG 3工作组中国区专家。主要参与了ISO/IEC TR 24028:2020《信息技术 人工智能 人工智能可信赖概述》、ISO/IEC NP TS 5471《信息技术-人工智能-人工智能系统的质量评估指南》和ISO/IEC 25059《软件工程 系统和软件质量要求与评估(SQuaRE) 人工智能系统质量模型》等标准的研发工作。
基于对WG 3工作组标准编制现状的梳理,初步建立了可信赖AI标准框架,如图1所示。
WG 3工作组标准摘要:
ISO/IEC TR 24028《信息技术 人工智能 人工智能可信赖概述》(发布) 主要阐述了人工智能系统的弱点及其在可信赖方面的威胁和挑战。该标准主要分为三部分:通过透明性、解释性、可控性等在人工智能系统中建立信任的方法;人工智能系统的工程缺陷和典型相关威胁和风险,以及可能的缓解技术和方法;评估和实现人工智能系统可用性、韧性、可靠性、准确性、功能安全性、信息安全性和隐私保护的方法。
ISO/IEC TR 24368《信息技术 人工智能 伦理和社会关注概述》(发布) 定义了人工智能伦理与社会原则,并在此基础上举例说明了在开发和使用人工智能过程中有关伦理和社会关注方面的实践。
ISO/IEC TR 24027《信息技术 人工智能 人工智能系统和人工智能辅助决策的偏见》(发布) 讨论了公平性与算法偏见的关系,说明了人工智能系统决策存在偏见的原因及类型,进而讨论了评估和缓解人工智能系统中造成偏见的方法。
ISO/IEC TR 24029-1《人工智能 神经网络鲁棒性评估 第1 部分:概述》(发布) 列举了目前评估神经网络鲁棒性的方法,包括统计方法、形式化方法和经验方法。
ISO/IEC TR 24029-2 《人工智能 神经网络鲁棒性评估 第2 部分:使用形式化方法的方法论》(在研) 给出了使用形式化方法来评估神经网络鲁棒性属性的方法,包括如何选择、应用和管理形式化方法来证明神经网络的稳健性。
ISO/IEC TS 6254 《信息技术 人工智能 机器学习模型和人工智能系统可解释性的目标和方法》(在研) 阐述了机器学习模型和人工智能系统可解释性的内涵及不同利益相关方对于可解释性的目标,列举了实现可解释的途径及 AI 系统生命周期中需要考量的有关可解释性的因素。
ISO/IEC TR 5469《信息技术 人工智能 功能安全与人工智能系统》(在研) 描述了有关人工智能功能安全的特性、风险因素、控制措施及过程等。
ISO/IEC 23894《信息技术 人工智能 风险管理》(发布) 是以 ISO 31000《通用风险管理》标准为指引而构建的人工智能技术和系统开发及应用过程的管理指南,提出了风险管理的目标,确定风险源及内外部影响因素,给出风险管控/应对措施;分析了目标、风险源、管控三者之间关系;提出了风险管理框架和管理流程在人工智能系统生命周期的各环节的实施与整合过程。
ISO/IEC TS 8200《信息技术人工智能 自动化人工智能系统的可控性》(在研) 由中国机构牵头编写。定义了在整个生命周期中开发和使用人工智能系统的基本框架,其中包含实现和增强自动化人工智能系统可控性的原则、特征和方法。
ISO/IEC 38507 《信息技术 IT治理 组织使用人工智能的治理影响》(发布) 为组织机构成员提供指导,确保在组织内有效、高效和可接受的使用人工智能。适用于人工智能当前和未来用途的治理,以及此类用途对组织本身的影响。适用于任何组织,包括公共和私营公司、政府实体和非营利组织。适用于任何规模的组织,无论其是否依赖数据或信息技术。
ISO/IEC NP TS 5471《信息技术 人工智能 人工智能系统的质量评估指南》(在研) 提供了使用人工智能系统质量模型,评估人工智能系统的指南。适用于从事人工智能开发和使用的所有类型的组织。目的是指导人工智能开发人员对其人工智能系统进行适当的质量评估。
ISO/IEC PRF 25059《软件工程 系统和软件质量要求和评估(SQuaRE) 人工智能系统的质量模型》(在研) 概述了人工智能系统的质量模型,是SQuaRE标准的特定应用扩展。模型中详细描述的特征和子特征为指定、测量和评估人工智能系统质量提供了一致的术语。模型中详细说明了特性和子特性,还提供了一组质量特性,可以将所述质量要求与这些特性进行比较以获得完整性。
原文转发腾讯公众平台链接