1、人工智能相关标准规范 ISO/IEC、ITU-T、IEEE 等国际标准组织以及各国家/区域标准组织均高度重视了人工智能相关标准规范研究编制工作。 ISO/IEC JTC12017 年10 月,ISO/IEC JTC1 成立人工智能分委员会SC42,专门负责人工智能标准化工作。SC42 下设 5 个工作组:基础标准(WG1)、大数据(WG2)、可信赖(WG3)、用例与应用(WG4)、人工智能系统计算方法和计算特征工作组(WG5),以及人工智能传播与外联咨询组(AHG1)和智能系统工程咨询组(AG2)等。其中主要标准项目包括:ISO/IEC TR 24027信息技术人工智能人工
2、智能系统中的偏差与人工智能辅助决策、TR 24028信息技术人工智能人工智能可信度概述、TR 24029-1人工智能神经网络鲁棒性评估第 1 部分:概述、AWI 24029-2人工智能神经网络鲁棒性评估第 2 部分:形式化方法、CD23894信息技术人工智能风险管理和AWI TR 24368信息技术人工智能伦理和社会关注概述等。 ITU-TITU-T 一直致力于解决智慧医疗、智能汽车、垃圾内容治理、生物特征识别等人工智能应用中的安全问题。2017 年和2018 年,ITU-T 均组织了“AI for Good Global”峰会,重点关注确保人工智能技术可信、安全和包容性发展的战略,
3、以及公平获利的权利。ITU-T 中,SG17 安全研究组和SG16 多媒体研究组均开展了人工智能安全相关标准研制工作,特别是 ITU-T SG17 已经计划开展人工智能赋能安全相关标准化项目的讨论和研究。同时,ITU-TSG17 安全标准工作组下设远程生物特征识别问题组(Q9)和身份管理架构和机制问题组(Q10),主要负责ITU-T 生物特征识别标准化工作;其中,Q9 关注生物特征数据的隐私保护、可靠性和安全性等方面的各种挑战。 IEEEIEEE 持续开展多项人工智能伦理道德研究,发布了 IEEE P7000 系列等多项人工智能伦理标准和研究报告,用于规范人工智能系统道德规范问题,包
4、括:IEEE P7000在系统设计中处理伦理问题的模型过程、P7001自治系统的透明度、P7002数据隐私处理、P7003算法偏差注意事项、P7004儿童和学生数据治理标准、P7005透明雇主数据治理标准、P7006个人数据人工智能代理标准、P7007伦理驱动的机器人和自动化系统的本体标准、P7008机器人、智能与自主系统中伦理驱动的助推标准、 P7009自主和半自主系统的失效安全设计标准、P7010合乎伦理的人工智能与自主系统的福祉度量标准、P7011新闻信源识别和评级过程标准、P7012机器可读个人隐私条款标准、P7013人脸自动分析技术的收录与应用标准等。 美国NIST美国国家
5、标准与技术研究院(NIST)专注于理解人工智能可信度的研究,并将这些指标纳入未来的标准,也建议在监管或采购中引用的人工智能标准保持灵活性,以适应人工智能技术的快速发展;制定度量标准以评估人工智能系统的可信赖属性;研究告知风险、监控和缓解风险等人工智能风险管理;研究对人工智能的设计、开发和使用的信任需求和方法;通过人工智能挑战问题和测试平台促进创造性的问题解决等。 2019 年 8 月,NIST 发布了关于政府如何制定人工智能技术标准和相关工具的指导意见,概述了多项有助于美国政府推动负责任地使用人工智能的举措,并列出了一些指导原则,这些原则将为未来的技术标准提供指导。 欧盟2019 年
6、 4 月 9 日,欧盟委员会(EC)任命的人工智能高级专家小组发布人工智能道德准则,提出了“可信任人工智能”应当满足的 7 个原则:(1)人类的力量和监督;(2)技术的可靠性和安全性;(3)隐私和数据管理;(4)透明性;(5)多样性、非歧视性和公平性;(6)社会和环境福祉;(7)可追责性。 下一阶段,欧盟委员会将启动人工智能道德准则的试行,邀请工业界、研究机构和政府机构对该准则进行测试和补充。 GSMA2019 年6 月27 日,GSMA 联合11 家产业伙伴宣布成立AI in Network