親愛的廣場用戶們,廣場使用界面全新升級啦!新版本界面更清新簡潔、操作更流暢絲滑,還有多項貼心新功能上線,快來更新體驗吧!你對新版界面有什麼感受?你最喜歡的新功能是哪一個?你發現了哪些驚喜或變化呢?發帖分享新版廣場使用體驗,瓜分 $10 分享獎勵!
🎁 我們將精選 10 位幸運用戶,每人獎勵 $10 合約體驗券!
參與方式:
1⃣️ 關注 Gate廣場_Official;
2⃣️ 帶上 #我的广场升级体验 標籤發帖,分享你的使用感受,比如界面風格體驗、細節功能變化、你最喜歡的新功能,或優化建議等;
3⃣️ 帖子內容需至少 30 字,並且只帶本活動標籤;
廣場界面煥新介紹文章:https://gate.com/post?post_id=14774358&tim=ARAbClhcBQNwWRIVGAoGBB5QX1sO0O0O&ref=BFlBUFwL&ref_type=105
活動截止時間:2025/10/26 18:00(UTC+8)
你的體驗是我們持續優化的動力!趕快參與和大家分享吧!
官方的Code Llama開源:免費商用,神秘版本接近GPT-4
來源:機器之心
編輯:杜偉、陳萍
今日,Meta 的開源Llama 模型家族迎來了一位新成員—— 專攻代碼生成的基礎模型Code Llama。
作為Llama 2 的代碼專用版本,Code Llama 基於特定的代碼數據集在其上進一步微調訓練而成。
Meta 表示,Code Llama 的開源協議與Llama 2 一樣,免費用於研究以及商用目的。
GitHub 地址:
Code Llama 系列模型有三個版本,參數量分別為7B、13B 和34B。並且支持多種編程語言,包括Python、C++、Java、PHP、Type (Java)、C# 和Bash。
Code Llama 穩定支持了最高10 萬token 的上下文生成。下圖2 為Code Llama 的微調流程。
另外,Code Llama 的「Unnatural」34B 版本在Human 數據集上的pass@1 接近了GPT-4(62.2% vs 67.0%)。 Meta 沒有發布這個版本,但通過一小部分高質量編碼數據的訓練實現了明顯的效果改進。
文中雖然提到它是「在15000 個unnatural 指令上微調的Code Llama-Python 34B 版本」,但Karpathy 仍然對這個「神秘的名稱、模糊的描述、碾壓其他的保密模型」感到很好奇。
Code Llama 如何工作
Code Llama 編碼能力非常強,它可以根據代碼和自然語言提示生成代碼(例如用戶輸入提示「幫我寫一個輸出斐波那契序列的函數。」) 它還可幫助用戶進行代碼補全和調試代碼。
下表為Code Llama 的訓練數據集。
除了作為生成更長程序的先決條件外,擁有更長的輸入序列也為Code Llama 帶來新的功能。例如,用戶可以為模型提供來自他們代碼庫的更多上下文,以使生成的代碼更相關。
Code Llama-Python 是Code Llama 的一種變體,其在Python 代碼的100B token 上進一步微調。下表為Code Llama-Python 的訓練數據集。
Meta 表示,他們不建議使用Code Llama 或Code Llama - Python 執行一般的自然語言任務,因為這兩個模型都不是為遵循自然語言指令而設計的。 Code Llama 專門用於特定於代碼的任務,不適合作為其他任務的基礎模型。
使用Code Llama 模型時,用戶必須遵守許可和使用政策。
Code Llama 性能如何
Meta 使用了Human 和MBPP(Mostly Basic Python Programming)兩個編碼基准進行測試。其中,Human 測試模型基於文檔字符串(docstrings)完成代碼的能力,MBPP 測試模型基於描述編寫代碼的能力。
結果表明,Code Llama 的性能優於開源、特定於代碼任務的LLM,並且優於自家Llama 2。例如,Code Llama 34B 在Human 上得分為53.7%,在MBPP 上得分為56.2%,與其他最先進的開源解決方案相比是最好的,與ChatGPT 相當。
由此看來,編碼能力不是特別強的Llama 2,這個坑已被Code Llama 填上了。 Meta 希望Code Llama 的出現能夠激勵其他研究者基於Llama 2 為研究和商業產品創建新的創新工具。
參考鏈接: