OSI 正式定义“开源 AI”,抵制“开源洗白”将更有力

10 月 29 日,开放源代码促进会(Open Source Initiative,OSI)发布了关于“开源AI定义”。根据该定义,真正开源的AI大模型必须提供训练数据的详细信息、完整的构建和运行AI的代码以及训练时的设置和权重。

OSI称,新定义是为了避免当前行业中对“开源大模型”的过度营销和使用误解。业内多方据此标准,认定当前市场上表面开源的大模型几乎都“名不副实”,包括大名鼎鼎的“开源大模型”标杆Llama和Gemma。

OSI是定义”开源“的组织,在过去两三年中,OSI发现传统的“开源”定义并不适用当前火热的AI大模型。因为AI大模型比传统开源软件更复杂:它不仅包含代码,还涉及大量的数据、复杂的模型架构以及训练过程中的各种参数等。而这些数据的收集、整理、标注等过程都对模型的性能和结果产生重要影响。传统的开源定义无法全面涵盖这些新的要素,导致在AI领域的适用性不足。

2023年,OSI对市场上的大模型调查发现,表面上开源的大模型几乎都“名不副实”。Hugging Face应用政策研究员Avijit Ghosh表示,将大模型描述为“开源”可能会使它们被认为更值得信赖。MIT Technology Review 的一份报告提到,一些专家认为,Meta 和 Google 的可免费访问模型对任何人开放,并可以调整,但这些模型并不“开放”,也不是真正的开源,因为它们限制了用户对模型的操作,并且训练数据集不公开。

去年6月,OSI表示将为开源AI重新设置定义。它邀请了70人专家组,包括研究员、律师、政策制定者和大型科技公司代表等,来共同协商制定AI开源定义。

如今,OSI正式宣布了开源AI定义(OSAID)1.0版。根据新定义,AI大模型若要被视为开源有三个要点:

OSAID还规定,开发者应享有使用、修改和共享模型的自由,而无需获得他人许可。对于新定义,独立研究员和开放源代码创建者Simon Willison称,“既然我们已经有了一个强有力的定义,也许我们可以更积极地抵制那些开源洗白(open washing)并宣称自己的工作是开源的公司。” 

此前,国内也爆发了“大模型开源闭源”之争。某企业负责人曾公开表示,“很多人混淆了模型开源和软件开源的概念”。他觉得当前对外公开的许多所谓“开源大模型”其实并未开放训练源代码、预训练和精调数据等影响模型效果的关键信息,所以这些模型无法像开源软件一样,靠社区开发者一起参与来提升效果和性能。应用“开源大模型”的企业,其实很难迭代并优化这些模型,以至于无法高效地应用于企业场景。基于这些原因,该负责人的观点是:闭源模型更适合商业化。

未经允许不得转载:岩猫星空网 » OSI 正式定义“开源 AI”,抵制“开源洗白”将更有力