1、1CEO 生成式 AI 行动指南 负责任 AI 与伦理IBM 商业价值研究院不同于以往的任何技术,生成式 AI 正在迅速颠覆商业和社会形态,迫使企业领导者刻不容缓地重新思考其假设、计划和战略。为了帮助 CEO 们掌握快速变化的形势,IBM 商业价值研究院(IBM IBV)发布了一系列有针对性、基于研究数据的生成式 AI 指南,涵盖数据网络安全、技术投资策略和客户体验等主题。这是本指南的第八部分,重点关注“负责任 AI 与伦理”。伦理工作责无旁贷CEO 生成式 AI 行动指南负责任 AI 与伦理人类价值观是负责任 AI 的核心随着企业纷纷开始探索生成式 AI 在处理各种令人难以置信的新任务方面的
2、能力,CEO 必须充当“掌舵者”,带领企业为生成式 AI 设定明确的合理使用方针。每个用例都有各自的伦理困境和合规性问题:企业应当如何保护敏感数据?企业应当如何以尊重版权的方式使用 AI?AI 的输出是否存在偏见、歧视,或者根本就是错误的?尽管解答这些问题需要整个团队的努力,但 CEO 必须为组织设定方向性的伦理方针。CEO 制定的这一路线将定义企业如何在尖端创新和传统的诚信与信任原则之间找到平衡。CEO 必须实施全面确保透明度和问责制的政策与流程,明确技术的使用方式和场景,以及数据集或底层基础模型的来源。这是一项持续性工作,因为组织需要持续监控和评估其 AI 产品组合,以确保始终符合不断变化
3、的政策和流程。2CEO 生成式 AI 行动指南 负责任 AI 与伦理IBM 商业价值研究院IBM 商业价值研究院甄别出了每位领导者都需要了解的三个要点:现在,每位领导者都需要采取以下三项行动:领导者必须培育一种注重 AI 伦理的文化,旨在优化 AI 的积极影响,同时以优先保障人类能动性和福祉以及环境可持续性的方式,降低为所有利益相关者带来的风险和不利影响。这将是一项仅靠技术无法应对的社会技术挑战。若要取得大规模成功,就必须对组织文化、工作流程和框架进行持续投资。公共舆论将评判企业的行为是否符合道德规范,以及是否符合消费者价值观。这样一来,就可以主观地衡量公平性和适当性。但是,合规性无法如此衡量
4、。1.CEO 不能在 AI 伦理问题上推卸责任。2.客户将评判您所做的每一个决定。不要损害他们的信任。3.一些企业因监管模糊性而陷入困境。1.让伦理团队在决策中占有一席之地而不是仅给予口头上的支持。2.通过满足客户期望来赢得信任。3.为所有 AI 和数据投资 做好伦理和监管准备。2IBM 商业价值研究院3CEO 生成式 AI 行动指南 负责任 AI 与伦理IBM 商业价值研究院1.战略+生成式 AICEO 不能在 AI 伦理问题上推卸责任。生成式 AI 就像是“狂野西部的淘金热”。对财富的追逐已经超过了规则和法规,早期的探矿者有机会一夜暴富。但是,这是以什么为代价呢?如果组织太急于求成,而未考
5、虑复杂的 AI 伦理和数据完整性问题,就可能会因短期利益而损害长期声誉。高管们了解其中的风险:58%受访高管认为采用生成式 AI 存在重大伦理风险,如果没有新的治理结构或者至少更加成熟的治理结构,就无法管理这种风险。然而,许多高管都难以将原则付诸实践。尽管 79%的受访高管表示 AI 伦理对其企业级 AI 方法很重要,但只有不到 25%的受访高管实施了 AI 伦理的共同原则。正是因此,CEO 必须掌控全局并为其他人开辟道路。直接向 CEO 寻求 AI 伦理指导的高管人数要比向董事会、总法律顾问、隐私官或风险与合规官寻求 AI 伦理指导的高管人数多出大约 2 倍。80%的受访高管表示,企业领导者
6、(而不是技术领导者)应当对人工智能伦理负主要责任。除了决策以外,CEO 还必须负责向其他领导者普及关于新兴伦理问题的知识。通过将关于可信 AI 的对话提升到其他高级管理层和董事会的层面,CEO 可以确保这些关键利益相关者不会被边缘化。采取积极主动、包容性的方法有助于确保每个人都了解风险以及管理这些风险的明确行动计划。这样一来,组织可以加快行动速度,同时保持领导层协同一致。需要了解的事项4CEO 生成式 AI 行动指南 负责任 AI 与伦理IBM 商业价值研究院1.支出+生成式 AI让伦理团队在决策中占有一席之地 而不是仅给予口头上的支持。采取行动,将意图付诸实践。为伦理团队、政策和监测流程提供