随着人工智能技术飞速发展,关于“开源AI”这一术语的争议愈发激烈。开源倡议组织(OSI)最近公布了其“开源AI”的最新草案定义,旨在澄清这一术语在迅速变化的领域中的模糊使用。这一举动发生在一些公司如Meta在发布训练有素的AI语言模型权重和代码时,使用“开源”标签却带来了限制,引发了自由软件倡导者之间关于AI背景下“开源”真正含义的激烈辩论。
Meta的Llama 3模型虽然可以自由获取,但由于公司规模或使用模型产生的内容类型而施加了使用许可限制,因此不符合OSI为软件定义的传统开源标准。AI图像生成器Flux是另一个标榜“开放”但并非真正开源的模型。由于这种模糊性,我们通常用“开放权重”或“源可用”等替代术语来描述包含代码或权重限制或缺少配套训练数据的AI模型。
为了正式解决这个问题,以倡导开源软件标准而闻名的OSI召集了一个约70名参与者的小组,包括研究人员、律师、政策制定者和活动家,来自Meta、Google和Amazon等大型科技公司的代表也加入了这一团队。该小组当前的草案(版本0.0.9)定义强调了与定义自由软件相似的“四大基本原则”:允许AI系统的用户在未经许可的情况下使用它用于任何目的,研究其工作原理,为任何目的修改它,以及分享修改或不修改的版本。
通过为开源AI建立清晰的标准,该组织希望提供一个基准,用于评估AI系统。这可能会帮助开发者、研究人员和用户对他们创建、研究或使用的AI工具做出更明智的决策。
真正开源的AI也可能揭示AI系统的潜在软件漏洞,因为研究人员将能够看到AI模型背后的工作原理。与此方法相比,像OpenAI的ChatGPT这样的不透明系统,不仅仅是一个带有花哨界面的GPT-4o大型语言模型——它是一个专有的模型和过滤器的互锁系统,其确切架构是一个严密守护的秘密。
OSI的项目时间表显示,预计在2024年10月在北卡罗来纳州罗利举行的All Things Open 2024活动上宣布“开源AI”定义的稳定版本。
“无需许可的创新”
在5月的新闻发布会上,OSI强调了定义开源AI真正含义的重要性。OSI的执行董事Stefano Maffulli说:“AI与常规软件不同,迫使所有利益相关者重新审视开源原则如何适用于这个领域。OSI相信每个人都应该保持对技术的代理和控制权。我们还认识到,当清晰的定义促进透明度、协作和无需许可的创新时,市场就会繁荣。”
该组织的最新草案定义不仅涵盖了AI模型或其权重,还包括了整个系统及其组件。
要使AI系统符合开源资格,它必须提供OSI所谓的“首选修改形式”的访问权限。这包括有关训练数据的详细信息,用于训练和运行系统的完整源代码,以及模型权重和参数。所有这些元素都必须在OSI批准的许可证或条款下提供。
值得注意的是,草案并未强制发布原始训练数据。相反,它要求“数据信息”——有关训练数据和方法的详细元数据。这包括有关数据来源、选择标准、预处理技术和其他相关细节的信息,这些信息将允许熟练的人重新创建类似的系统。
“数据信息”方法旨在在不披露实际数据集的情况下提供透明度和可复制性,表面上解决了潜在的隐私或版权问题,同时坚持开源原则,尽管这一点可能会进一步辩论。
独立AI研究员Simon Willison在接受科技媒体采访时谈到OSI的提议时表示:“[定义]最有趣的事情是他们允许不发布训练数据。这是一种非常务实的方法——如果他们不允许,那么几乎没有能力强大的‘开源’模型。”
开源AI定义的正式化是AI领域的一个重要进程,这不仅有助于明确AI开源的边界,也可能推动更广泛的透明度和创新。随着开源AI定义的最终确定,该领域有望发展更加开放、协作的开发环境,这将为全球AI开发者社区带来深刻影响。