当前位置:首页 > 报告详情

安远AI:2023前沿大模型的风险、安全与治理报告(60页).pdf

上传人: 微*** 编号:151602 2024-01-16 60页 21.60MB

下载:
word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要从前沿大模型的趋势预测、风险分析、安全技术、治理方案四个方面展开讨论。 1. 趋势预测:前沿大模型实验室普遍假设Scaling Laws仍有效,模型能力在未来几年仍存在数量级进步的空间。ChatGPT的出现,让我们需要认真对待在未来十年内出现通用人工智能(AGI)的可能性。 2. 风险分析:前沿大模型的滥用风险迫在眉睫,可能成为生物安全风险的推动者和新型网络犯罪的工具。建立风险等级测试评估体系,分类分级管理,例如建立针对训练高风险前沿大模型的许可制度。 3. 安全技术:AI安全研究有四大抓手:对齐、鲁棒性、监测和系统性安全,应构建多层次的安全保障。主流的RLHF对齐方法存在根本局限,难以拓展到更高级的系统。 4. 治理方案:技术治理、行业自律、政府监管和国际治理缺一不可。推动前沿大模型实验室和企业落地最佳实践,包括部署前风险评估、危险能力评测、第三方模型审核、模型使用的限制和红队测试。负责任扩展策略(RSP)是应对AI潜在灾难性风险的务实选择。
前沿大模型如何影响生物安全? 开源大模型存在哪些风险? 未来十年内AGI可能实现吗?
客服
商务合作
小程序
服务号
折叠