加州大學柏克萊分校研究團隊提出新的 AI 訓練方法 GEPA、已被 ICLR 2026 接收為 Oral 論文。GEPA 不更新模型權重、不需 GPU 訓練,只用一個「讀取訓練紀錄」的 LLM 反覆改寫 AI 系統的提示詞,便在 6 項任務上平均勝過主流強化學習方法 GRPO 6%、最高勝出 20%、所需訓練嘗試次數(rollouts)少 35 倍。研究經 AI 工程社群整理擴散後在 X 平台引發討論,目前已整合進 DSPy 成為一等優化器。
GEPA 在做什麼:把訓練紀錄當教材、不再只看分數
傳統強化學習方法(如 GRPO)的工作流是:讓 AI 跑一次任務、根據結果給一個「+1 或 -1」的分數,再用這個分數反覆調整模型權重。問題是 AI 跑這一次任務的過程通常包含上千 token 的推理步驟、工具呼叫、錯誤訊息—這些豐富細節全被壓縮成一個分數,過程資訊被丟掉。所以 RL 需要跑成千上萬次才能收斂。
GEPA 的做法相反:每次 AI 跑完任務,把整段過程(reasoning、工具呼叫、報錯紀錄)原原本本交給另一個「反思 LLM」閱讀。反思 LLM 像個資深工程師讀程式 log,找出哪一步出錯、為何出錯、應該如何修改提示詞,然後直接重寫該模組的提示。同樣一次跑任務、GEPA 從中提取的訊號量遠多於 RL 的單一分數。
為何能贏:把「打分數」改成「讀整段過程」
GEPA 在 6 項任務上平均勝 GRPO 6%、最高勝 20%;對比另一個主流提示優化器 MIPROv2 也勝出 10% 以上(在 AIME-2025 數學題基準上提升 12%)。最關鍵的是訓練成本:GEPA 達到同等性能所需的 rollouts(一次完整跑任務)少 35 倍。
另一項數據是 GEPA 與 DSPy 整合後的「Full Program Adapter」可優化整個 DSPy 程式(包含 signature、模組、控制流),在 MATH 數學基準達 93% 準確率,大幅超過 DSPy 原本的 ChainOfThought 寫法的 67%。GEPA 也在 multi-module 工作流(多模組串接的 AI agent)上表現特別好—可精準鎖定某一個出錯的模組改寫提示,而不是調整整個系統。
誰會先用上:DSPy 一等公民、GitHub 已開源
GEPA 程式碼已開源於 GitHub,並以 dspy.GEPA 形式整合進 DSPy 框架、也獨立發布為 Python library。研究團隊跨 UC Berkeley、Stanford、Notre Dame、Anthropic 等機構,論文作者包含 Matei Zaharia(Databricks 共同創辦人、DSPy 主要作者)與 Omar Khattab(DSPy 主要作者)。
對開發者社群而言,GEPA 提供了「擁有大量 rollout 但不知如何利用」的新解法—多數團隊已累積成千上萬筆 agent 跑任務紀錄,但除了出錯時翻幾筆查 bug,並無系統性方法把這些紀錄轉成模型改進。下一個觀察點是 GEPA 在企業 agentic 工作流(如客服自動化、程式自動修復)的實際導入案例,以及是否會出現非 DSPy 框架的 GEPA 對應實作。
這篇文章 Berkeley GEPA 解析:不更新權重就能讓 AI 學會新任務、35 倍少訓練成本勝 RL 最早出現於 鏈新聞 ABMedia。
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見
聲明。
相關文章
Karpathy 親揭:用 LLM 打造個人知識庫的完整方法
OpenAI 創辦團隊成員、Tesla 前 AI 總監 Andrej Karpathy 在 X 上發布「LLM Knowledge Bases」工作流程、解釋他近期把大量 token 用量從「操控程式碼」轉向「操控知識」—用 LLM 把分散的論文、文章、資料夾、影像、整理成一個自動維護的個人 wiki。整套流程已在他自己的研究專案上累積 ~100 篇文章、~40 萬字、且全程由 LLM 寫入與更新。本文整理 Karpathy 的完整 setup、給想自己複製的開發者一張可實作清單。
核心理念:raw 資料 → LLM 編譯 → wiki → Q&A
Karpathy 的設計哲學可以濃縮成一
鏈新聞abmedia4小時前
比特幣金庫公司 K Wave Media 爭取最多 $485M 用於 AI 基礎設施佈署
根據 ChainCatcher 報導,納斯達克上市的比特幣金庫公司 K Wave Media 於 5 月 4 日宣布進行戰略轉型,轉向 AI 基礎設施,為資料中心投資、GPU 租賃服務,以及 AI 基礎設施的收購與合作,取得最高 4.85 億美元的資本支持。
該公司
GateNews5小時前
反物質公司推出 AI 資料中心計畫,並獲得 3 億歐元融資
反物質公司(Antimatter)是一家總部位於法國、面向 AI 工作負載的雲端基礎設施公司,於 5 月 4 日推出,透過整合三家既有公司:Datafactory、Policloud 和 Hivenet。該公司正在募集 3 億歐元(3.51 億美元),以在 2026 年部署 100 個微型資料中心單元用於 AI 推論
Crypto Frontier7小時前
教育部「館館有 AI」圖書館免費用 ChatGPT、Claude!適用時間地點一次看
教育部推動「館館有 AI」,今年第四季起於國家圖書館等國立圖書館設置每館5台 AI 電腦,民眾以借書證即可免費使用 ChatGPT、Claude、Gemini 等工具,縮小付費 AI 差距,並拓展至47所國立大學圖書館,資金由學校自籌或申請補助;同時需克服使用時段、帳號管理、隱私與授權等挑戰。
鏈新聞abmedia7小時前
AI 虛擬模特兒經濟學:Aitana、Emily 與 4 檔 Markdown 系統解析
AI 虛擬模特兒從話題實驗、走到月入數萬美元的商業實體、整個技術 stack 在 18 個月內快速成熟。本文整理三個典型案例:The Clueless 旗下 Aitana López(巴塞隆納、月入 €10,000)、匿名創作者打造的 Emily Pellegrini(每週收入約 1 萬美元)、以及最近在 X 平台流傳的「Maya」案例—一名德州學生據稱以 4 個 markdown 檔搭建的 AI 虛擬人格、首月於 OnlyFans 帳上產生 4.3 萬美元收入。
Aitana López:The Clueless 自有的虛擬模特兒、月入最高 €10,000
Aitana López 是西
鏈新聞abmedia10小時前
TipTip 在 AI 強化娛樂票務之下達到 EBITDA 獲利能力
印尼娛樂與體驗平台 TipTip 於 5 月 4 日宣布,公司在 2026 年初實現了全公司範圍的 EBITDA 獲利,這主要受惠於成本控制、單位經濟改善,以及與主要投資人 East Ventures 的合作。
娛樂票務成長
TipTip 的娛樂 t
Crypto Frontier12小時前