💥 Gate 廣場活動: #发帖赢代币PORTALS# 💥
在 Gate廣場發布與 PORTALS、Alpha交易賽、空投活動或Launchpool 相關的原創內容,即有機會瓜分 1,300 枚 PORTALS 獎勵!
📅 活動時間:2025年9月18日 18:00 – 9月25日 24:00 (UTC+8)
📌 相關詳情:
Alpha交易賽:參與即有機會贏獎勵
👉 https://www.gate.com/zh/announcements/article/47181
空投活動:領取 #PORTALS# 空投
👉 https://www.gate.com/zh/announcements/article/47168
Launchpool:抵押 GT 獲取 PORTALS
👉 https://www.gate.com/zh/announcements/article/47148
📌 參與方式:
發布原創內容,主題需與 PORTALS 或相關活動(Alpha交易賽 / 空投 / Launchpool) 相關
內容不少於 80 字
帖子添加話題: #发帖赢代币PORTALS#
附上任意活動參與截圖
🏆 獎勵設置:
🥇 一等獎(1名):300 PORTALS
🥈 二等獎(4名):150 PORTALS/人
🥉 三等獎(4名):100 PORTALS/人
📄 注意事項:
OpenAI 最新研究:為何 GPT-5 與其他 LLM 還是會胡說八道
OpenAI 發布最新研究論文,直言即使大型語言模型 (LLM) 像 GPT-5 已經進步不少,但是「AI 幻覺」 (Hallucinations) 依舊是根本問題,甚至永遠無法完全消除。研究團隊透過實驗,揭露模型在回答特定問題時,會自信滿滿卻給出完全錯誤的答案,並提出一套新的「評估機制」改革方案,希望能減少模型「亂猜」的情況。
研究員測試 AI 模型不同問題,答案全錯
研究人員向某個被廣泛使用的聊天機器人,詢問某個的博士論文題目,結果連續得到三個答案全都錯誤。接著再問他的生日,機器人同樣給了三個不同日期,結果還是全錯。
研究表示,AI 模型在面對一些資料裡「很不常見的資訊」時,它會很有自信地給出答案,但卻錯得離譜。
預訓練機制只學「語言表面」,不懂事實正確性
研究指出,模型的預訓練過程,是透過大量文字來「預測下一個詞」,但資料裡沒有標註「真或假」。換句話說,模型只學到語言的表面,而不是事實正確性。
拼字或括號這類規律性高的東西,隨著模型規模變大,錯誤會逐漸消失。
但像是「某人生日」這種隨機性高的資訊,無法靠語言模式推理出來,因此容易產生幻覺。
AI 模型被鼓勵「瞎猜」,需修正模型評估模式
研究強調評估方式要大改,重點不是單純看「對或錯」,而是要重罰那種錯得很自信的答案,並且獎勵 AI 要「老實說不知道」。換句話說,AI 要是亂講答案,比承認不知道更該被扣分。
反過來,如果它回答「不確定」,也應該拿到一些分數,而不是直接算零分。而且這不能只是多加幾個測驗做做樣子,而是要徹底推翻現在只看答對率的評估制度。不改正評估方式,AI 只會繼續亂猜。
研究最後表示要降低幻覺,就必須從評估體系下手,建立能真正鼓勵「謹慎與誠實」的測試方式。與其要求 AI「每次都答對」,更重要的是建立一個能接受 AI「不知道」的遊戲規則。
(2025 最新五大主流 LLM 全解析,付費、應用與安全性一次看懂)
這篇文章 OpenAI 最新研究:為何 GPT-5 與其他 LLM 還是會胡說八道 最早出現於 鏈新聞 ABMedia。