• Meta开源Code Llama 对标GitHub Copilot X
  • 发布于 2个月前
  • 216 热度
    0 评论
Meta自从开放了Llama 2以后,最近又开源了Code Llama。Code Llama是一个在Llama 2上经过微调得到的专用的编写代码的LLM,总共有三个版本,基础版本,Python版本,以及指令遵循版本。Meta为这三个版本都准备了不同的参数量级,分别是7 Billion, 13 Billion和34Billion。

根据Meta的测试,Code Llama和GPT 3.5差不多,按照Meta的说法,这已经是开源世界里面最牛逼的编程LLM了。

为什么要做这件事情呢?因为Meta开源了Llama 和Llama 2以后,大家发现,尽管在日常的问答上,表现还不错,但是在编程相关的表现上,这个模型和GPT3.5比起来,实在是有很大的差距。所以Meta专门又找了一大堆的代码相关的数据,对这个大模型进行了finetune,也就是微调,这样一来,它的性能终于能够和GPT 3.5 差不多了。

当然,Meta表示,这是开源领域最先进的大模型,欢迎大家使用,但是不接受反驳。最后一句话是我瞎说的。这一届的程序员是很幸福的,因为有GitHub Copilot X这样的产品,写代码的时候,AI自动就帮助程序员写完很多的代码了。但是,毕竟GitHub Copilot X这种不是开源的,还收费,在企业内部代码上用,肯定多多少少都有一些顾虑。

所以从某种程度上来说,Meta这个开源的大模型,起码是做了一次雷锋,给很多企业解决了在企业内部代码上没有AI帮助程序员们写代码的问题。据说这次的开源LLM可以支持Python,C++,Java,JavaScript等各种语言,支持通过自然语言来生成代码,也支持给一段代码,帮助debug。

这些体验,可谓和GPT很像了。至于其实际效果到底怎么样,开源出来还没被大规模的验证,效果好不好,还真的不好说。不过以前开源的Llama 2来看,我就觉得挺有意思的。

因为微软选择了和Meta合作,在Azure的云上提供Llama 2的服务。要知道微软自己是和OpenAI深度合作的,那么微软为什么又要和Meta合作呢?我们只能这样认为,一方面,微软和OpenAI的关系,可能也没有外界想象的那么好。另外一方面,Meta的开源模型Llama 2,和OpenAI的差距,也没有那么夸张。

这样一来,基于商业利益的考虑,微软脚踩多只船,也可以理解了。但是同样的,我们也可以判断,这个Code Llama,估计也是一个和GPT有差距,但是凑合着应该也够用的产品。

这无疑是开源大模型的胜利。毕竟,开源社区太缺一款能打的能帮助程序员写代码的AI大模型了。

这不,缺什么,就送什么,Meta果然是大模型界的活雷锋,不愧是做开源做得风生水起的公司。只是不知道,将来Meta要怎么样从这笔生意里面赚到钱呢?
用户评论