开源人工智能是前进的道路

2024年7月25日 41人浏览 / 0人评论 / 添加收藏
? 由 文心大模型 生成的文章摘要

在高性能计算的早期,彼时的各大科技公司都投入巨资开发闭源版Unix。但最终,开源Linux 还是流行起来了——最初是因为它支持开发者随意修改代码,而且价格更实惠,随着时间的推移,它变得更加先进、更加安全,并且拥有比任何闭源Unix都支持更多功能的更广泛的生态系统。如今,Linux是云计算和运行大多数移动设备操作系统的行业标准基础——我们都因此受益于卓越的产品。

我相信人工智能也会以类似的方式发展。今天,几家科技公司正在开发领先的封闭模型,但开源正在迅速缩小差距。去年,Llama 2仅与落后的上一代模型性能相当。今年,Llama 3与最先进的模型相媲美,并在某些领域处于领先地位。从明年开始,我们预计未来的Llama模型将成为业内最先进的模型。但Llama已经在开放性、可修改性和成本效益方面处于领先地位。

今天,我们正朝着开源AI成为行业标准的目标迈进。我们发布了第一个前沿级开源AI模型 Llama 3.1 405B,以及全新改进的Llama 3.1 70B和8B模型。除了相对于封闭模型具有显著更好的成本/性能之外,405B模型是开放的这一事实将使其成为微调和提炼较小模型的最佳选择。

除了发布这些模型,我们还与一系列公司合作,以发展更广泛的生态系统。亚马逊、Databricks 和英伟达正在推出全套服务,以支持开发者微调和提炼模型。Groq等创新者为所有新模型构建了低延迟、低成本的推理服务。这些模型将在所有主要云平台上提供,包括AWS、Azure、Google、Oracle等。Scale.AI、戴尔、德勤等公司已准备好帮助企业采用Llama并使用数据训练自定义模型。随着社区的发展和更多公司开发新服务,我们可以共同使Llama成为行业标准,并将AI的好处带给每个人。

为什么开源AI对开发者有利

每个组织都有不同的需求,最好使用不同大小的模型来满足这些需求,这些模型是根据其特定数据进行训练或微调的。设备上的任务和分类任务需要小型模型,而更复杂的任务则需要更大的模型。现在,你将能够采用最先进的Llama模型,继续基于原有数据进行训练,然后将它们提炼成最佳大小的模型。

开源使拥有兼容工具链的广泛公司生态系统成为可能,人们普遍认为,开源软件往往更安全,因为它的开发更加透明。

我们需要一个高效且运行成本低廉的模型。开发者可以在基础设施上对Llama 3.1 405B进行推理,成本约为使用GPT-4o等封闭模型的50%。

我们希望投资于将成为长期标准的生态系统。许多人认为开源的发展速度比封闭模式更快,并希望在能够带来长期最大优势的架构上构建系统。

为什么开源人工智能对 Meta 有利

Meta的商业模式是为人们打造最佳体验和服务。要做到这一点,我们必须确保我们始终能够采用最佳技术,并且不会陷入竞争对手的封闭生态系统。

很明显,如果我们能够构建我们产品的最佳版本,而竞争对手无法限制我们能够构建的内容,那么Meta和许多其他公司将可以为人们构建更好的服务。这是我如此坚信为下一代计算构建开放的AI和AR/VR生态系统的主要原因。

人们经常问我是否担心开源Llama会放弃技术优势,但我认为这忽略了大局,原因如下:

首先,为了确保我们能够使用最好的技术,并且不会长期被困在封闭的生态系统中,Llama需要发展成为一个完整的生态系统,包括工具、效率改进、芯片优化和其他集成。如果我们是唯一一家使用Llama的公司,那么这个生态系统就不会发展,我们的境况也不会比封闭的 Unix好。

其次,我预计人工智能开发将继续保持高度竞争,这意味着开源任何给定模型并不会失去当时相对于下一个最佳模型的巨大优势。Llama成为行业标准的道路是一代又一代保持竞争力、高效和开放。

第三,Meta与封闭模型供应商之间的一个关键区别是,出售AI模型访问权限不是我们的商业模式。这意味着公开发布Llama不会像封闭供应商那样削弱我们的收入、可持续性或投资研究。

最后,Meta拥有悠久的开源项目和成功历史。我们通过开放计算项目发布我们的服务器、网络和数据中心设计,并让供应链在我们的设计上实现标准化,从而节省了数十亿美元。我们通过开源领先的工具(如PyTorch、React等)从生态系统的创新中受益匪浅。只要我们长期坚持,这种方法就会一直对我们有效。

AILlama 3

全部评论