英偉達開源 120B 智能體模型 Nemotron 3 Super,吞吐量最高提升 5 倍

Gate News 消息,3 月 12 日,英偉達發布開源大語言模型 Nemotron 3 Super,面向多智能體應用場景設計。模型總參數量 1200 億,採用混合 Mamba-Transformer MoE 架構,推理時每個 token 僅激活 120 億參數。其核心技術「潛在 MoE」(Latent MoE)將 token 嵌入壓縮到低秩潛在空間後再路由至專家網絡,实现以單個專家的計算成本同時激活 4 個專家,推理吞吐量較上一代 Nemotron Super 最高提升 5 倍。模型原生支持 100 萬 token 上下文窗口,適用於需要長時間保持工作流狀態的自主智能體。在評估智能體工作負載的 PinchBench 基準測試中,Nemotron 3 Super 得分 85.6%,是同類開源模型中的最高分。英偉達同步開源了超過 10 萬億 token 的訓練數據集、15 個強化學習訓練環境和評估方案,採用 NVIDIA Nemotron Open Model License 許可協議。模型已上線 Hugging Face、build.nvidia.com、Perplexity、OpenRouter 等平台,並支持通過 Google Cloud、Oracle、AWS Bedrock、Azure 等雲服務部署。Perplexity、CodeRabbit、Cadence、達索系統、西門子等公司已率先採用。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言