《2024基础模型的负责任开源-超越开源闭源的二元对立:负责任开源的内涵、实践与方案报告》
根据斯坦福大学《2024年AI指数报告》,2023年全球总共发布了149个基础模型,比 2022年发布的数量翻了一倍还多,而且更高比例是开源的。在这些新发布的模型中,有 65.7%是开源的,相比开云网站之下,2022年只有44.4%,2021年只有33.3%的模型是开源的。根据全球开源社区Hugging Face的调研 ,Llama 1和Llama 2现在已经衍生出了3万个新 模型。多位专家预计,即将推出的Llama 3 4 0 0 B将会是“首个GPT-4 级别的开源模型”。
本报告从安全治理的角度探讨开源AI的政策和实践。在制定相关政策时,各国需要综合考 虑促进创新生态、技术的安全性与可控性、隐私保护、知识产权、伦理与责任、国际合作与标 准制定、市场竞争环境、教育与公众参与等多个方面。这些维度与各国的战略考虑及监管取向 相结合,共同构成了开源AI的治理政策框架。全球范围内,许多国家和地区,包括欧盟、美国、英国、法国、中国以及其他全球南方国 家,都在积极制定AI相关政策,开源AI也成为多项政策探索的核心。尽管这些政策旨在平衡技 术发展与安全需求,但在监管取向和具体条款的设计上存在显著差异,这部分原因是由于政策 制定过程中缺乏关于风险、收益及潜在影响的严谨证据。
开源是科学和创新的重要驱动力,但同时需要权衡其潜在风险,对未来更强的前沿AI不同 程度开源可能引入更大的潜在风险。因此,我们建议推动负责任开源,这包括两个层面:
第一,促进开放发布从构建到使用的全流程负责任实践。建议根据基础模型的生命周期和 流程阶段,设计构建和使用阶段的负责任开源维度,并针对不同能力级别的模型制定差异化的 负责任开源要求。例如对于大开云网站多数AI模型,负责任主要体现在提高透明度、确保合规和促进创 新。而对于能力更强的前沿模型,需要实施与模型的潜在风险相称的评测和安全缓解措Kaiyun官方入口施。
第二,在封闭发布中探索实现开源等效收益的替代方案。建议开发者应考虑开源的替代方 案,在获得技术和社会效益的同时,又没有太大的风险。包括为受信任的研究人员提供结构化 访问,以帮助识别安全或道德缺陷,鼓励独立第三方的审核等。 虽然严格意义上我们讨论的是“负责任发布”,但我们希望通过突出“负责任开源”的概 念,推动开源AI安全治理的讨论,并促进负责任开源实践的发展。
在当今AI领域,将AI模型简单地划分为开源或闭源是一种过于简化的做法。开源AI的概念 尚未得到清晰定义,与开源软件不同,AI模型的Kaiyun官方入口“源代码”可能包括多种组件,如推理代码、 训练代码、模型权重和训练数据,这些组件的开放程度可以各异。此外,从“完全开放”到 “完全封闭”的发布选项实际上是多样的,需要明确的标准和定义来权衡透明性、安全性和商 业考量。
在安全和治理方面,研究发现无论是开源还是闭源模型,都存在对特定攻击的脆弱性,而 AI研发机构在安全政策和透明度方面的表现各异。倾向于开放模型的机构在推动透明度和外部 评估方面表现较好,而倾向于封闭模型的机构则在安全政策实施方面更为优秀。为了推动负责任开源的实践,一方面需要促进开放模型从构建到使用的全流程负责任,建 议对于不同能力级别的AI模型,应有差异化的开源要求。
另一方面,需要探索在封闭模型中实 现既可以获得开源的益处,又没有太大的风险的替代方案,如增量分阶段发布、结构化访问和 研究API、独立第三方审核、数据本地化和文化适应等。开源AI的负责任实践并非一成不变,而是会随着技术发展和社会需求的变化而不断演进。
我们可以预见,未来开源与闭源的讨论将更加深入和细化,可能会出现更多创新的发布模式和 治理机制,以适应不断变化的环境和挑战。在这个过程中,各方面的合作和对话将至关重要, 以确保AI技术的健康发展和广泛应用。
Copyright © 2024 开云沙盘有限公司 版权所有 备案号:蜀ICP备19012180号 网站地图