1、生成式 AI 应用现状及政策建议2023 年 11 月 2 日生成式 AI:风险、机遇与前景全球数字信任专业机构 ISACA 调查了逾 2300 位审计、风险、安全、数据隐私、IT 治理领域的专业人士,收集了他们关于生成式 AI 应用现状的看法。调查结果:生成式 AI 的应用率快速上升,但众多组织缺乏相关政策准备、培训与有效的风险管理。只有有效管理 AI,AI 才能带来大量机遇。生成式 AI 应用现状及政策建议 2023 ISACA 版权所有生成式 AI 应用率高,但政策缺位仅28%仅41%的组织表示明确允许使用生成式 AI的组织表示员工不论有没有相关政策都在使用生成式 AI,另有 35%不确
2、定。生成式 AI 主要应用方式:65%进行书面写作44%提高生产率232%自动处理重复性任务329%提供客户服务427%改进决策5生成式 AI 应用现状及政策建议 2023 ISACA 版权所有缺乏培训、不关注 AI 应用伦理可能导致风险增加仅 10%受访者表示组织正式颁布了生成式 AI 应用的管理政策超过1/4的受访者表示目前没有政策,组织也没有计划制定政策。的组织为员工提供 AI 相关培训表示组织对 AI 应用伦理标准的关注不够表示根本没有 AI 相关培训,甚至直接受 AI 应用影响的团队也没有培训机会54%41%仅6%生成式 AI 应用现状及政策建议 2023 ISACA 版权所有组织需
3、要优先考虑风险管理不到 1/3的组织将管理 AI 风险视作当务之急。不法分子对 AI 的利用快于数字信任专业人士57%69%非常或极度担忧生成式 AI 被坏人滥用表示坏人对 AI 的应用与数字信任专业人士旗鼓相当甚至更胜一筹1.错误信息/虚假信息2.侵犯隐私3.社会工程学4.知识产权(IP)损失5.裁员77%35%58%63%68%Al 应用的五大风险生成式 AI 应用现状及政策建议 2023 ISACA 版权所有Al 将对工作岗位产生显著影响1/5的组织(19%)在未来 12 个月内将放出与 AI 相关的工作岗位45%但70%23%认为 AI 会造成大量岗位被淘汰。的数字信任专业人士认为 A
4、I 会对自己的工作产生一定积极影响,虽然 80%认为他们将需要额外的培训来保住工作或升职。认为岗位数量会增加。生成式 AI 应用现状及政策建议 2023 ISACA 版权所有总体来看,前景是乐观的85%的受访者认为 AI 作为一种工具能扩展人类的生产力。62%受访者认为 AI 将对整个社会都产生积极或中性的影响。在未来五年内:80%的数字信任专业人士相信 AI 会对所在行业产生积 极或中性的影响 81%的受访者相信 AI 会对所在组织产生积极或中性的 影响 82%的受访者相信 AI 会对自己的职业产生积极或中性 的影响生成式 AI 应用现状及政策建议 2023 ISACA 版权所有AI 可接受
5、使用政策(AUP)为企业提供了一个合乎道德、负责任地部署 AI 的框架。鉴于生成式 AI 的快速发展,企业必须提供明确的使用指南,以平衡其收益和风险。由 ISACA 开发的本资源可为企业起草生成式 AI 使用政策提供指南。获取 ISACA 白皮书、审计项目、证书等 AI 资源,请访问www.isaca.org/resources/artificial-intelligence。生成式 AI 应用现状及政策建议实施生成式 AI 政策的考虑因素 2023 ISACA 版权所有以下是实施生成式 AI 政策时的关键考虑因素。请注意,具体政策应根据您所在组织的具体需求作出调整。哪些人会受到政策范围影响?
6、AI 系统是否安全?消费者希望知道 AI 驱动的系统如何处理他们的信 息。监管部门可能询问您是否遵守负责任 AI 原则。员工必须了解此政策背后的根本原因和紧迫性。您所在组织中经理、员工和 IT 部门对生成式 AI 的责任分别是什么?保护 AI 系统,防止未经授权的访问、篡改和滥用。如果此 AI 系统生成的内容可能被滥用而造成伤害,这一点就极其重要。在企业内实施生成式 AI 使用政策之前、期间和之后,都必须证明使用的系统安全且符合隐私标准。是否与 ChatGPT 等生成式 AI 工具分享公司数据不应由员工来决定。如果组织致力于提供安全保险的环境,那么应用的所有 AI 工具都应被证实是负责任 AI