当前位置:首页 >英文主页 >中英对照 > 报告详情

AI Verify Foundation & IMDA:2024生成式人工智能模型治理框架报告(英文版)(23页).pdf

上传人: Kell****reet 编号:172089 2024-08-15 23页 594.46KB

下载:
word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
根据报告的内容,本文主要讨论了关于生成式人工智能(AI)治理框架的九个维度,以促进一个值得信赖的生态系统。这些维度包括: 1. 问责制:强调AI开发链中的各方应对终端用户负责,并采取结构性的激励措施以实现这一目标。 2. 数据:数据是模型和应用开发的核心元素。文章强调了在模型开发中使用数据时,需要确保数据质量,并给商业提供清晰性。 3. 值得信赖的开发和部署:在AI驱动的创新中,模型开发和基于其的应用部署是核心。文章提倡采用最佳实践进行开发、评估,并在之后提供“食品标签”式的透明度和披露。 4. 事件报告:即使是最稳健的开发流程和保障措施,也没有今天的软件是完全无懈可击的。因此,建立结构和流程以实现事件监控和报告至关重要。 5. 测试和保证:第三方测试和保证在值得信赖的生态系统中起着补充作用。 6. 安全:生成式AI引入了通过模型本身注入的新威胁。 7. 内容来源:由于AI生成内容易于创建,可能会加剧错误信息。 8. 安全和一致性研究与开发(R&D):为了改善模型与人类意图和价值观的一致性,需要加速投资于R&D。 9. AI公共利益:负责任的AI不仅仅是风险缓解。它还在于提升和赋权我们的民众和企业,以在AI启用的未来中蓬勃发展。 这些维度需要所有关键利益相关者,包括政策制定者、行业、研究社区和更广泛的公众,共同努力。
如何在AI开发中确保数据质量? 如何平衡创新与保护用户? 如何确保AI系统的安全性和透明度?
客服
商务合作
小程序
服务号
折叠