#稳定币GENIUS法案新进展#
美参议院以 68 比 30 的投票结果决定推进稳定币 GENIUS 法案。参议院多数党领袖约翰·图恩表示,该法案将助力美国成为“全球加密货币之都”。目前法案已进入辩论和全体表决阶段,后续或将提交众议院审议。
💬 你看好该法案最终通过吗?若通过,将对稳定币赛道和整个加密市场带来哪些影响?
#ETH短期期权价格大涨#
数据显示,过去48小时内ETH短期期权价格大幅上升,1周IV从65.2%飙升至79.0%,1个月IV从66.4%升至72.1%。分析认为,这反映出市场对ETH短期爆发的预期增强。
💬 这是否会推动ETH价格进一步上涨?你近期的ETH操作策略如何?欢迎分享你的行情分析与交易思路!
#DeFi借贷TVL历史新高#
据 DeFiLlama 数据,DeFi 借贷TVL已达558.1亿美元,刷新历史纪录。目前已有10个协议TVL突破10亿美元,其中Aave以262.99亿美元稳居首位,占比达47.1%;SparkLend则达36.61亿美元。
💬 这是否预示着DeFi赛道新一轮爆发?你看好哪些Gate上的DeFi代币?欢迎分享你的潜力币种分析和持仓策略!
使用以上话题发帖,发布你的观点与交易策略,每日赚取社区成长值,解锁评论高亮、动态装饰、月度成长值抽奖等多重权益!月度抽奖奖品包括 iPhone 16、精美周边、热门代币等超值好礼!
更多
Stability AI火速发布Llama 2微调模型FreeWilly,性能媲美ChatGPT!网友惊呼游戏规则已改变
来源:新智元
Meta的Llama 2一发布,就引爆了整个开源社区。
正如OpenAI科学家Karpathy所说,对于整个大语言模型领域来说,这是极其重要的一天。在开放权重的所有模型中,Llama 2是最强大的一个。
从此,开源大模型与闭源大模型的差距将进一步缩小,构建大模型的机会,从此对所有开发者都是平等的。
就在刚刚,Stability AI和CarperAI实验室联合发布了基于LLaMA 2 70B模型的微调模型——FreeWilly2。
以及,基于LLaMA 65B原始模型微调的——FreeWilly1。
在各项基准测试中,FreeWilly2都展现出了卓越的推理能力,甚至有部分任务还超过了GPT-3.5。
这两款模型都是研究实验,并在非商业许可下发布。
数据生成与收集
Stability AI表示,FreeWilly模型的训练是受到了微软论文《Orca: Progressive Learning from Complex Explanation Traces of GPT-4》的直接启发。
不过,虽然数据生成过程类似,但来源却有所不同。
FreeWilly的数据集变体包含有60万个数据点(大约是原始Orca论文使用的数据集大小的10%),并通过使用Enrico Shippole创建的高质量指令数据集,对模型进行了引导:
COT Submix Original
NIV2 Submix Original
FLAN 2021 Submix Original
T0 Submix Original
通过这种方法,Stability AI使用了一个较简单的LLM模型生成了50万个示例,再使用一个更复杂的LLM模型生成了额外的10万个示例。
尽管训练样本量仅为原始Orca论文的十分之一,但由此生成的FreeWilly模型,不仅在各种基准测试中都表现出色,而且也验证了合成生成数据集方法的可行性。
模型性能的评估
在性能评估方面,Stability AI的研究人员采用了EleutherAI的lm--harness,并加入了AGI。
从结果来看,FreeWilly在很多方面都表现出色,包括复杂的推理、理解语言的微妙之处,以及回答与专业领域相关的复杂问题(如法律和数学问题解决)。
基本上,FreeWilly 2已经实现了与ChatGPT相当的水平,甚至在有些评测上更胜一筹。
可以看到,在Open LLM排行榜上,FreeWilly 2以绝对领先的优势排在第一,平均得分比原始版的Llama 2高了4个百分点。
为了开放的未来
可以说,FreeWilly1和FreeWilly2为开源大语言模型树立了新的标准。
这两个模型的推出,不仅极大地推进了相关领域的研究,增强了自然语言理解能力,而且还支持复杂任务的完成。
Stability AI表示,团队为这些模型能AI社区带来的无限可能感到非常兴奋,并期待着那些因它们而激发出全新应用。
此外,也衷心感谢充满激情的研究人员、工程师和合作伙伴团队,是他们的卓越努力和奉献,使Stability AI能够达到这一重要里程碑。
激动人心的时刻
模型一经发布,网友「Phil Howes」就利用Tuhin Srivastava的Llama v2框架,在不到一分钟时间就完成了FreeWilly 2的实现。
经过275GB的权重加载后,模型的运行速度在开箱即用的情况下达到了23 token/s。