亲爱的广场用户们,广场使用界面全新升级啦!新版本界面更清新简洁、操作更流畅丝滑,还有多项贴心新功能上线,快来更新体验吧!你对新版界面有什么感受?你最喜欢的新功能是哪一个?你发现了哪些惊喜或变化呢?发帖分享新版广场使用体验,瓜分 $10 分享奖励!
🎁 我们将精选 10 位幸运用户,每人奖励 $10 合约体验券!
参与方式:
1⃣️ 关注 Gate广场_Official;
2⃣️ 带上 #我的广场升级体验 标签发帖,分享你的使用感受,比如界面风格体验、细节功能变化、你最喜欢的新功能,或优化建议等;
3⃣️ 帖子内容需至少 30 字,并且只带本活动标签;
广场界面焕新介绍文章:https://gate.com/post?post_id=14774358&tim=ARAbClhcBQNwWRIVGAoGBB5QX1sO0O0O&ref=BFlBUFwL&ref_type=105
活动截止时间:2025/10/26 18:00(UTC+8)
你的体验是我们持续优化的动力!赶快参与和大家分享吧!
官方的Code Llama开源:免费商用,神秘版本接近GPT-4
来源:机器之心
编辑:杜伟、陈萍
今日,Meta 的开源 Llama 模型家族迎来了一位新成员 —— 专攻代码生成的基础模型 Code Llama。
作为 Llama 2 的代码专用版本,Code Llama 基于特定的代码数据集在其上进一步微调训练而成。
Meta 表示,Code Llama 的开源协议与 Llama 2 一样,免费用于研究以及商用目的。
GitHub 地址:
Code Llama 系列模型有三个版本,参数量分别为 7B、13B 和 34B。并且支持多种编程语言,包括 Python、C++、Java、PHP、Type (Java)、C# 和 Bash。
Code Llama 稳定支持了最高 10 万 token 的上下文生成。下图 2 为 Code Llama 的微调流程。
另外,Code Llama 的「Unnatural」34B 版本在 Human 数据集上的 pass@1 接近了 GPT-4(62.2% vs 67.0%)。Meta 没有发布这个版本,但通过一小部分高质量编码数据的训练实现了明显的效果改进。
文中虽然提到它是「在 15000 个 unnatural 指令上微调的 Code Llama-Python 34B 版本」,但 Karpathy 仍然对这个「神秘的名称、模糊的描述、碾压其他的保密模型」感到很好奇。
Code Llama 如何工作
Code Llama 编码能力非常强,它可以根据代码和自然语言提示生成代码(例如用户输入提示「帮我写一个输出斐波那契序列的函数。」) 它还可帮助用户进行代码补全和调试代码。
下表为 Code Llama 的训练数据集。
除了作为生成更长程序的先决条件外,拥有更长的输入序列也为 Code Llama 带来新的功能。例如,用户可以为模型提供来自他们代码库的更多上下文,以使生成的代码更相关。
Code Llama-Python 是 Code Llama 的一种变体,其在 Python 代码的 100B token 上进一步微调。下表为 Code Llama-Python 的训练数据集。
Meta 表示,他们不建议使用 Code Llama 或 Code Llama - Python 执行一般的自然语言任务,因为这两个模型都不是为遵循自然语言指令而设计的。Code Llama 专门用于特定于代码的任务,不适合作为其他任务的基础模型。
使用 Code Llama 模型时,用户必须遵守许可和使用政策。
Code Llama 性能如何
Meta 使用了 Human 和 MBPP(Mostly Basic Python Programming)两个编码基准进行测试。其中,Human 测试模型基于文档字符串(docstrings)完成代码的能力,MBPP 测试模型基于描述编写代码的能力。
结果表明,Code Llama 的性能优于开源、特定于代码任务的 LLM,并且优于自家 Llama 2。例如,Code Llama 34B 在 Human 上得分为 53.7%,在 MBPP 上得分为 56.2%,与其他最先进的开源解决方案相比是最好的,与 ChatGPT 相当。
由此看来,编码能力不是特别强的 Llama 2,这个坑已被 Code Llama 填上了。Meta 希望 Code Llama 的出现能够激励其他研究者基于 Llama 2 为研究和商业产品创建新的创新工具。
参考链接: