随着人工智能技术的飞速发展,大模型已经成为了科技巨头们竞争的焦点。近日,Meta宣布将在下个月发布新一代大模型LLaMA 3,这一消息无疑将为这场竞争增添新的火药。据悉,LLaMA 3将有多个具有不同功能的版本,参数量可能超过1400亿,相较于前一代LLaMA 2的最大版本参数量提升了一倍。值得注意的是,LLaMA 3将延续Meta一直以来的开源路线。
开源与闭源是两种不同的软件发展模式。开源模式指的是软件的源代码对所有人开放,任何人都可以查看、修改和分发。这种模式的优势在于能够吸引全球开发者共同参与,加速软件的发展和优化。而闭源模式则是软件的源代码不对外公开,只有公司内部的开发人员可以修改。这种模式的优势在于能够保护公司的核心技术,避免竞争对手的抄袭。
Meta在人工智能领域一直坚持开源策略。2023年2月,Meta发布了第一代LLaMA大模型,包括70亿、130亿、330亿、650亿这四种参数规模,旨在推动LLM的小型化和平民化研究。去年7月,Meta又发布了LLaMA 2,采用了先发小模型的策略。在发布700亿参数的LLaMA 2大规模版本之前,Meta先行推出了130亿和70亿参数的小型版本。这些开源模型得到了广泛的关注,许多开发者基于LLaMA系列模型开发了各种应用。
然而,随着竞争的加剧,闭源模式也逐渐受到关注。今年2月,谷歌改变了去年坚持的大模型闭源策略,推出了开源大模型Gemma;3月,马斯克也开源了旗下xAI公司的Grok-1模型。根据Gemma和Grok-1的性能测试文档,它们在数学、推理、代码等多项基准测试方面的性能均超过了同规模的LLaMA 2模型。
尽管Meta在人工智能领域的投入不可小觑,但面对越来越多的竞争对手,Meta是否能够继续保持领先地位还有待观察。据市场跟踪公司Omdia去年发布的一份报告,Meta和微软是英伟达H100 GPU的最大买家。据其估算,上述两家公司在2023年各自采购了多达150000个H100 GPU,是谷歌、亚马逊、甲骨文等科技公司所购的H100 GPU数量的三倍以上。
此外,Meta在AI基础设施上的投入也是巨大的。根据Meta发布的一篇技术博客,到2024年底,该公司将再购350000个英伟达H100 GPU,算上其他GPU,其算力相当于近600000个H100。目前只有微软拥有与之相当的计算能力储备。按照亚马逊上给出的价格来算,一块H100芯片大约3万美金,350000个H100的价格就是105亿美元(约合760亿人民币)。
总之,随着人工智能技术的发展,大模型的竞争将越来越激烈。Meta在开源领域的优势是否能继续保持,以及闭源模式是否会成为新的趋势,都值得关注。