Gate 廣場創作者新春激勵正式開啟,發帖解鎖 $60,000 豪華獎池
如何參與:
報名活動表單:https://www.gate.com/questionnaire/7315
使用廣場任意發帖小工具,搭配文字發布內容即可
豐厚獎勵一覽:
發帖即可可瓜分 $25,000 獎池
10 位幸運用戶:獲得 1 GT + Gate 鸭舌帽
Top 發帖獎勵:發帖與互動越多,排名越高,贏取 Gate 新年周邊、Gate 雙肩包等好禮
新手專屬福利:首帖即得 $50 獎勵,繼續發帖还能瓜分 $10,000 新手獎池
活動時間:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
詳情:https://www.gate.com/announcements/article/49112
Stability AI火速發布Llama 2微調模型FreeWilly,性能媲美ChatGPT!網友驚呼遊戲規則已改變
來源:新智元
Meta的Llama 2一發布,就引爆了整個開源社區。
正如OpenAI科學家Karpathy所說,對於整個大語言模型領域來說,這是極其重要的一天。在開放權重的所有模型中,Llama 2是最強大的一個。
從此,開源大模型與閉源大模型的差距將進一步縮小,構建大模型的機會,從此對所有開發者都是平等的。
就在剛剛,Stability AI和CarperAI實驗室聯合發布了基於LLaMA 2 70B模型的微調模型——FreeWilly2。
以及,基於LLaMA 65B原始模型微調的——FreeWilly1。
在各項基準測試中,FreeWilly2都展現出了卓越的推理能力,甚至有部分任務還超過了GPT-3.5。
這兩款模型都是研究實驗,並在非商業許可下發布。
數據生成與收集
Stability AI表示,FreeWilly模型的訓練是受到了微軟論文《Orca: Progressive Learning from Complex Explanation Traces of GPT-4》的直接啟發。
不過,雖然數據生成過程類似,但來源卻有所不同。
FreeWilly的數據集變體包含有60萬個數據點(大約是原始Orca論文使用的數據集大小的10%),並通過使用Enrico Shippole創建的高質量指令數據集,對模型進行了引導:
COT 子混音原版
NIV2 Submix 原版
FLAN 2021 子混音原創
T0 子混音原創
通過這種方法,Stability AI使用了一個較簡單的LLM模型生成了50萬個示例,再使用一個更複雜的LLM模型生成了額外的10萬個示例。
儘管訓練樣本量僅為原始Orca論文的十分之一,但由此生成的FreeWilly模型,不僅在各種基準測試中都表現出色,而且也驗證了合成生成數據集方法的可行性。
模型性能的評估
在性能評估方面,Stability AI的研究人員採用了EleutherAI的lm–harness,並加入了AGI。
從結果來看,FreeWilly在很多方面都表現出色,包括複雜的推理、理解語言的微妙之處,以及回答與專業領域相關的複雜問題(如法律和數學問題解決)。
基本上,FreeWilly 2已經實現了與ChatGPT相當的水平,甚至在有些評測上更勝一籌。
可以看到,在Open LLM排行榜上,FreeWilly 2以絕對領先的優勢排在第一,平均得分比原始版的Llama 2高了4個百分點。
為了開放的未來
可以說,FreeWilly1和FreeWilly2為開源大語言模型樹立了新的標準。
這兩個模型的推出,不僅極大地推進了相關領域的研究,增強了自然語言理解能力,而且還支持複雜任務的完成。
Stability AI表示,團隊為這些模型能AI社區帶來的無限可能感到非常興奮,並期待著那些因它們而激發出全新應用。
此外,也衷心感謝充滿激情的研究人員、工程師和合作夥伴團隊,是他們的卓越努力和奉獻,使Stability AI能夠達到這一重要里程碑。
激動人心的時刻
模型一經發布,網友「Phil Howes」就利用Tuhin Srivastava的Llama v2框架,在不到一分鐘時間就完成了FreeWilly 2的實現。
經過275GB的權重加載後,模型的運行速度在開箱即用的情況下達到了23 token/s。