您当前的位置:首页 >> 潮流饰家

GNU大模型代码短板补上了!新羊驼Python赛过ChatGPT,免费可商用

2024-01-19 12:17:39

鱼羊 发自 凹非寺后

量子位 | 公众号 QbitAI

Llama 2系列又上新的,这回是Meta正式合拍的Apache脚本口语大三维Code Llama。

三维一发布,正式直接给贴了个“屈指可数”标签,还强调为了一把“免费可商用”。

关键是,Code Llama全力支持10万token表达式,这可把中国网民们乐坏了:这是一口气读6000讫Python编码不费劲的快节奏啊。

OpenAI创始新的成员Karpathy也闻讯前来蜂拥,还指出了像是在文章中的“华点”:Code Llama没有公布的一个“unnatural”初版,效率已经将近ChatGPT,逼近GPT-4。

全力支持10万token表达式

基本而言,Code Llama可以却说是Llama 2的编码专用初版,你既可以通过聊天的方式让它生成编码、彻底解决脚本口语难题,也可以用它来调为试编码。

全力支持的口语包括Python、C++、Ja、PHP、Typescript(Jascript)、C#和Bash等。

Meta提供了Code Llama的三个不尽相同初版:

Code Llama,框架编码三维;Code Llama-Python,Python这两项为初版;Code Llama-Instruct,自然口语指令这两项为初版。

其中,Python这两项为初版是在1000亿token的Python编码资料上开讫这两项为的。

而Instruct初版则能够愈来愈好地解读自然口语提醒。

和Llama 2一样,Code Llama的3个初版各有3种不尽相同尺寸的三维可供选择,分别是7B、13B和34B。

每个三维都被喂开了5000亿token的编码及编码相关资料。

Meta谈到,其中7B三维可以在单个GPU上运讫。

另外,7B和13B的框架三维和Instruct初版三维都有FIM(fill-in-the-middle)功用。也就是却说,它们具备编码缓冲的能力,可以被用到IDE的编码操作者除去场景中。

而最受中国网民关注的一个功用令人惊叹是,Code Llama的全系列三维都开讫了长序列表达式这两项为,长达全力支持10万token表达式。

这就也就是说,你可以把整个编码库直接塞给Code Llama,再也不用激怒大三维帮你调为编码的时候根本不解读你自已啥。

有中国网民就谈到,目前GPT-4、GitHub Copliot在实际使用中的一大难题,就是表达式窗口太短,解读不了项目的整体消费。

不过,文章谈到,当提醒阔度将近1.6万token时,Code Llama全系列三维的数据库可靠性(retrieval accuracy)都太大下降。

屈指可数Apache脚本口语大三维

Meta分别在HumanEval和MBPP上测试了Code Llama的效率。

结果显示,Code Llama的显出在一众Apache三维中位列第一,将近了Llama 2。

举例来却说,Code Llama-Python 34B在HumanEval上得分为53.7%,在MBPP上得分为56.2%,将近了GPT-3.5(ChatGPT)的48.1%和52.2%。

框架三维初版和Instruct初版也有近GPT-3.5的显出。

值得一提的是,在文章中,Meta还测试了一个“unnatural”34B初版,效率碾压一众三维,包括ChatGPT,仅有略逊于GPT-4。

另外,Meta也在愈来愈多样化的脚本口语口语资料集上分析报告了Code Llama的显出。

在任何口语的编码生成中,Code Llama都优于相同大小的Llama 2。从区域性得分来看,Code Llama的7B三维甚至将近了Llama 2的70B三维。

同时,Code Llama 7B的显出也将近了CodeGen-Multi和StarCoder等脚本口语大口语三维,高度与Codex十分。

如果你对Code Llama感兴趣,GitHub项目链接文末奉上~

不过,自已获得编码和三重,还得先给Meta发个核发。

参考链接:[1]GitHub项目页:[2][3]

— 完 —

量子位 QbitAI · 新的闻报导号签约

贴剂与安必丁同用可以吗
吃什么可补肾精抗衰老
济南小程序开发
普乐安片和坦洛新可以同时吃吗
打鼾有什么方法可以治疗
标签:代码模型
相关阅读
友情链接