1、执摘要执摘要1.开源基础模型已成为创新的重要驱动之根据斯坦福学2024年AI指数报告1,2023年全球总共发布了149个基础模型,2022年发布的数量翻了倍还多,且更例是开源的。在这些新发布的模型中,有65.7%是开源的,相之下,2022年只有44.4%,2021年只有33.3%的模型是开源的。根据全球开源社区Hugging Face的调研2,Llama 1和Llama 2现在已经衍出了3万个新模型。多位专家预计,即将推出的Llama 3?B将会是“个GPT-?级别的开源模型”。2.如何治理开源AI已成为短期内重要的未解决议题之本报告从安全治理的度探讨开源AI的政策和实践。在制定相关政策时,各
2、国需要综合考虑促进创新态、技术的安全性与可控性、隐私保护、知识产权、伦理与责任、国际合作与标准制定、市场竞争环境、教育与公众参与等多个。这些维度与各国的战略考虑及监管取向相结合,共同构成了开源AI的治理政策框架。全球范围内,许多国家和地区,包括欧盟、美国、英国、法国、中国以及其他全球南国家,都在积极制定AI相关政策,开源AI也成为多项政策探索的核。尽管这些政策旨在平衡技术发展与安全需求,但在监管取向和具体条款的设计上存在显著差异,这部分原因是由于政策制定过程中缺乏关于险、收益及潜在影响的严谨证据。3.前沿AI开源的主要争论领先的基础模型研发机构近年决定开源其模型或限制对其模型的访问,引发了关于
3、是否以及如何开放能益增强的基础模型的争论。我们识别了两种主要场:是审慎开放的倡导者,他们担前沿AI开源成为潜在不安全技术“不可逆转的扩散”,并主张在确保安全的基础上逐步推进开放;另则是励开放的持者,他们认为前沿AI开源是“确保对技术信任的唯途径”,强调开放性对于促进创新和透明度的重要性,并反对过度限制的做法。尽管在险与收益的评估、开源式、安保措施以及监管政策等存在分歧,但两都认同开放性在推动技术进步和促进社会福祉的重要作,以及前沿AI开源的潜在险,都主张在开源前应采取必要的评测等安全措施。此外,从企业视看,有关开源和闭源的讨论和实践或多或少地带有商业利益的考量。2Clem Delangue,“
4、Llama 3 is officially the fastest model from release to#1 trending on Hugging Face-in just a fewhours.”,2024-04-19,https:/ HAI,“2024 AI Index Report”,2024-04-15,https:/aiindex.stanford.edu/report/.I基础模型的负责任开源4.超越简单化的“开放与封闭”争论虽然开放基础模型带来了发展与安全之间的紧张关系不可能完全消除,但我们提倡可以超越简单化的维视,探索更丰富的发布政策设计空间。将AI模型简单地划分为开源
5、或闭源是种过于简化的做法。开源AI的概念尚未得到清晰定义,与开源软件不同,AI模型的“源代码”可能包括多种组件,这些组件的开放程度可以各异。此外,从“完全开放”到“完全封闭”的发布选项实际上是多样的,需要明确的标准和定义来权衡透明性、安全性和商业考量。根据多个度的安全和治理评测,我们依然法得到开放或封闭模型哪个更有明显优势的结论。综合模型安全性评测,开放模型和封闭模型均显出对各种攻击的脆弱性。AI研发机构治理评测指出,倾向于开放模型的机构和倾向于封闭模型的机构各有所。本报告的讨论范围设定参考了斯坦福学基础模型研究中的“开放基础模型”概念图35.推动基础模型负责任开源的务实案开源是科学和创新的重
6、要驱动,但同时需要权衡其潜在险,对未来更强的前沿AI不同程度开源可能引更的潜在险。因此,我们建议推动负责任开源,这包括两个层:第,促进开放发布从构建到使的全流程负责任实践。建议根据基础模型的命周期和流程阶段,设计构建和使阶段的负责任开源维度,并针对不同能级别的模型制定差异化的负责任开源要求。例如对于多数AI模型,负责任主要体现在提透明度、确保合规和促进创新。对于能更强的前沿模型,需要实施与模型的潜在险相称的评测和安全缓解措施。3Rishi Bommasani et al.,“Considerations for Governing Open Foundation Models”,2023-12