🚨 ChatGPT 在27%的情況下會對你撒謊,而你卻毫不知情。


一位律師因相信完全捏造的AI生成法律引用,結果失去了他的職業生涯,並在法庭上提交了這些資料。法官查明後,職業生涯就此結束。
但大多數人不知道的是..
約翰霍普金斯的研究人員測試了1200個提示,發現提示方式會改變一切。
基線提示:27.3%的幻覺率
像「保持準確」這樣的通用指令:24.1%.. 幾乎沒幫助
現在的解決方案是:
只需在你的問題前加上「根據」。
例如:不要說:「鎂的健康益處是什麼?」
而是說:「根據同行評審的研究,鎂的健康益處是什麼?」
幻覺率降至7.2%.. 這僅僅一個小改變就降低了20個百分點。
來源歸屬方法也一樣.. 7.2%。
技巧很簡單.. 當你強迫AI將其聲稱歸因於某個具體來源時,它就不那麼容易胡亂編造。它要么找到來源,要么告訴你它不知道。
兩個字。少說20%的謊言。
大多數人會繼續用懶惰的方式提示。現在你不會了。
查看原文
post-image
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言