毕马威(KPMG)发布了《人工智能治理的未来形态》。
报告指出,在世界各地的司法管辖区,有关数据和人工智能治理的新政策举措和条例标志着自我监管的结束和新监督的兴起。随着监管环境继续以传统的速度发展,领先的组织正在积极主动地解决道德和治理问题,而不是等待对其强制执行要求。
以下国家和司法管辖区的全球人工智能法规

虽然人工智能监管是全面和可执行的,但短期内可能不会出现。在相对成熟的经济体中,标准化的人工智能治理框架和共同的人工智能原则有望在2到3年内实现。这意味着组织在开始人工智能之旅时,应该积极主动地考虑独特的治理和风险影响,并帮助形成这些框架和原则。
在监管机构没有明确指示的情况下,组织可以采取以下六个战术步骤来准备监管的发展:
1.制定人工智能原则、政策和设计标准,并在一个鼓励创新、灵活性和信任的环境中建立控制,同时识别与人工智能相关的独特风险。此外,了解AI在组织中的足迹,以便清点能力和用例。
2.在整个人工智能开发生命周期中设计、实施和操作端到端人工智能治理和操作模型,包括策略、构建、培训、评估、部署、操作和监控人工智能。考虑建立独立的治理委员会和理事会的必要性,以解决与AI和数据相关的独特风险和复杂性。
3.评估当前的治理和风险框架,并进行差距分析,以确定需要解决的机会和领域。
4.设计一个跨职能的治理委员会和框架,通过指导方针、模板、工具和加速器提供人工智能解决方案和创新,以快速而负责任地提供人工智能解决方案。
5.集成一个风险管理框架,以确定关键业务算法并确定其优先级,并结合一个敏捷的风险缓解策略,以解决设计和操作过程中的网络安全、完整性、公平性和恢复性问题
6.设计和建立标准,以保持对算法的持续控制,而不扼杀创新和灵活性。考虑投资于新功能的需求,以通过AI工具实现有效的治理和风险管理。
报告总结
未来几年,Al将对商业和社会产生巨大变革,而各公司推动的创新将会以前所未有的速度和规模塑造这个世界。这也带来了巨大的责任,许多政府正在参与和合作,以更好地了解Al可能产生的影响。随着监管者继续沿着这条道路前进,他们起草的法规可能会试图在广泛的行业和用例中影响Al的创新和应用循环。
积极制定和实施自己的公司治理政策和现在的原则——那些建立信任、显示透明度和高道德标准的原则——可以帮助政府制定区域和全球监管,并在监管颁布时更好地取得成功。
文本由@云闲 原创发布于三个皮匠报告网站,未经授权禁止转载。
数据来源:《毕马威(KPMG):人工智能治理的未来形态》。