🚨 ChatGPTは27%の確率であなたに嘘をつき、そのことにあなたは気づいていません。
弁護士は、完全に捏造されたAI生成の法的引用を信じてキャリアを失いました。裁判所に提出し、判事にバレました。キャリア終了です。
しかし、多くの人が知らないことがあります..
ジョンズ・ホプキンス大学の研究者は1,200のプロンプトをテストし、プロンプトの仕方がすべてを変えることを発見しました。
基本的なプロンプト:27.3%の幻覚率
「正確であること」などの一般的な指示:24.1%..ほとんど効果なし
次に、これが解決策です:
質問の前に「によると」を追加するだけです。
例: "マグネシウムの健康効果は何ですか?"
→ "ピアレビューされた研究によると、マグネシウムの健康効果は何ですか?"
幻覚率は7.2%に下がります..これはわずかな変更で20ポイントの削減です。
出典帰属の方法も同じです.. 7.2%。
コツは簡単です.. AIにその主張を特定の出典に帰属させるように強制すると、簡単に捏造できなくなります。出典を見つけるか、「わかりません」と答えるかです。
たった2つの言葉で、嘘が20%減ります。
ほとんどの人は怠惰な方法でプロンプトし続けます。今後はそうしません。
原文表示