当前位置:首页 >英文主页 >中英对照 > 报告详情

凯捷(Capgemini):人工智能与伦理难题(英文版)(44页).pdf

上传人: 云闲 编号:39518 2021-06-08 44页 6.68MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要探讨了人工智能(AI)在伦理方面的挑战,以及组织如何构建稳健的AI系统并赢得信任。文章指出,虽然组织在伦理方面有所认识,但在伦理维度上的进展参差不齐。文章通过调查800多家组织和2900名消费者,研究了组织与关键利益相关者(如客户和员工)共享的信任风险,以及组织在透明度、公平性等方面的运营情况。 主要发现包括: 1. 近一半的客户(49%)表示信任与组织进行的AI互动,高于2018年的30%。 2. 尽管组织在执行伦理宪章和提高对伦理偏见和透明度问题的认识方面取得了进展,但问责制仍然不足:只有53%的组织有负责AI系统伦理的领导者,只有50%的组织设有保密热线/调解员,以便客户/员工就AI系统的伦理问题提出投诉。 3. 近60%的组织在过去两三年内因AI系统做出的决定而受到法律审查,22%的组织面临客户反弹。 4. 近40%的客户表示,如果他们有负面AI体验,他们将转向人工互动。 5. 客户认为组织在某些关键伦理问题上做得不够:认为组织完全透明地使用他们个人数据的客户比例从2019年的76%降至62%。 文章最后提出了七项关键行动,以帮助组织构建稳健的AI系统,这些行动需要强有力的领导力、治理和内部实践作为支撑。
组织如何构建道德稳健的AI系统? 消费者对AI系统的信任度如何? AI系统在哪些方面存在道德问题?
客服
商务合作
小程序
服务号
折叠