為什麼 AI 總在捏造事實——6 個真正有效的提示技術
2026-04-22AI 為什麼會「捏造事實」?誠實的解釋
AI 語言模型並不像資料庫那樣「知道」事實。它們通過預測給定上文後最可能出現的下一個詞來生成文字——這意味著當訓練資料無法清晰支撐某個具體答案時,模型仍然會生成一個。它用聽起來合理的文字填補空白。這就是「幻覺」(Hallucination),它是這類模型工作方式的結構性特徵,而非一個能被完全修補的缺陷。
根據 AllAboutAI 2026 年的報告,現有前沿模型的幻覺率在 3% 至 27% 之間,視任務類型而定——其中事實回憶任務和引用請求的幻覺率最高。對於每天使用 AI 的從業者而言,這意味著大約每 10 個事實性陳述中就有 1 個可能是捏造的,尤其是涉及具體人名、日期、統計數字或網址時。
好消息是:幻覺的出現並非隨機,它遵循可預測的規律。一旦你理解這些規律,就可以通過提示技術將幻覺率降低 40–60%——無需更換模型,也無需額外付費。本文介紹六個在 ChatGPT、Claude 和 Gemini 上均有效的技術,並附有即用範例。
哪些任務類型最容易觸發幻覺?
幻覺的分佈並不均勻。SQ Magazine 2026 年的分析識別出五類高風險任務:具體引用與文獻來源、訓練截止日期後的近期事件、小眾或高度具體的統計數據、具名實體(人名、企業、產品),以及涉及真實世界數據的多步驟計算。
低風險任務的幻覺率則低於 5%,包括摘要你已提供的內容、改寫或重新格式化現有文字、根據明確範本生成結構化輸出,以及不要求事實準確性的頭腦風暴。
這個區別對從業者至關重要。幻覺在很大程度上取決於你在問什麼,而非僅僅取決於你使用哪個模型。同一個能捏造統計數字的 GPT-5.4,在摘要你貼入的文件時卻能做到幾乎完全準確。解決方案不一定是換模型——而是改變任務設計。
技術一:將模型的回答錨定在你的資料來源
減少幻覺最有效的技術也是最簡單的:不要要求模型從記憶中召喚事實——而是把事實直接給它,讓它基於這些資料回答。將文件、文章或數據貼入對話,明確告知模型只能基於這些資料回答。
這種方法有時被稱為「接地生成」(Grounded Generation)。根據 PMC 發表的幻覺歸因研究,與開放式回憶提示相比,接地提示在資訊檢索任務上能將幻覺減少約 40%。
即用提示範本:
--- 以下是來自【文件名稱】的段落。請僅使用這段文字中包含的資訊回答以下問題。如果這段文字不足以回答問題,請說「該段落未直接涉及此問題」,而非進行推斷。
--- 【在此貼入段落】
--- 問題:【你的問題】
「而非進行推斷」這句話至關重要。缺少它,模型往往會從部分證據出發向前推理填補空白——這正是那些聽起來自信的幻覺的產生方式。
技術二:要求模型展示推理過程
思維鏈(Chain-of-Thought)提示——要求模型在陳述結論之前逐步推理——是研究最深入的幻覺減少技術之一。2024 年史丹福大學的研究發現,將檢索增強的接地方法與思維鏈提示結合使用,與非結構化基準提示相比,幻覺率降低了 96%。
其機制直接明了:當模型將推理過程外化時,它就少了隱藏弱推論的空間。一個在單一步驟中生成的自信答案可能掩蓋一連串猜測,而逐步推理軌跡則會明確地呈現這些猜測,讓你有機會發現並質疑它們。
即用提示範本:
--- 在給出最終答案之前,請逐步說明你的推理過程。對於每個步驟,請說明你是:(a)基於我提供的資訊、(b)基於你有把握的通識、還是(c)進行推斷或估算。相應地標記每個步驟,然後再給出最終答案。
標記指令尤其有用,因為它迫使模型對自己的信心水平進行自我分類——而模型在這方面的準確度往往超出預期。
技術三:要求提供來源與信心等級
當任務需要事實性陳述時,加入一條結構性規則:每個陳述都必須附有引用來源和信心等級說明。一項大型新聞分析系統研究驗證了這一技術——要求為每個陳述標注來源,與未注明出處的提示相比,幻覺率降低了約 40%。
其機制與思維鏈類似:當你明確要求所有陳述都需要歸因,模型就無法生成聽起來自信但無來源的陳述。捏造的引用確實仍會發生——這一點很重要,需要了解——但發生率會大幅下降,而且捏造的引用比嵌入流暢散文中的捏造事實更容易核實和發現。
即用提示範本:
--- 對於你提出的每一個事實性陳述,請附上:(1)緊接在陳述後方加上方括號的來源——可以是我提供的具體文件,或公共機構、報告、研究的名稱;(2)信心等級:高(確定)、中(可能但未核實)、低(估算)。如果你無法以高或中信心為某個陳述提供來源,請勿提出該陳述——改為以【未核實】標記。
技術四:使用輸出格式約束
要求模型生成結構化、受限的輸出——JSON、帶有明確欄位的編號清單、格式化表格——能通過縮小模型回應的設計空間來減少幻覺。當輸出格式嚴格時,模型就沒有空間引入合理但捏造的填充內容。自由形式散文的幻覺率最高;嚴格架構輸出的幻覺率最低。
根據 Voiceflow 關於 LLM 幻覺預防的研究,結構化輸出約束對資料提取任務特別有效——即模型必須從文件中提取特定欄位,而非自由摘要或詮釋。
即用提示範本:
--- 從我提供的文件中提取以下欄位。僅以 JSON 物件形式返回你的答案,使用以下精確鍵名:name、date、location、key_figure、main_claim。如果某個欄位在文件中未明確說明,則使用 null 作為值。不要推斷文件中未明確存在的值。
「使用 null」的指令至關重要。沒有它,模型會用它的最佳猜測填充缺失欄位——在輸出中與準確數據無法區分。
技術五:將複雜任務分解為較小步驟
多步驟任務會增加幻覺風險,因為錯誤會在步驟間累積。如果模型在六步驟鏈中的第二步做出了微小的推斷錯誤,每個後續步驟都建立在有缺陷的基礎上——最終輸出可能嚴重偏差,同時看起來內部一致。
解決方法是分解複雜任務,並在繼續之前驗證每個步驟。不要要求「研究這個主題並撰寫一篇含統計數據的 1000 字報告」,而是分解為:(1)這份報告應回答哪些核心問題?(2)對於每個問題,我需要提供什麼資訊?(3)根據我提供的資訊,為第一個問題起草章節。每個步驟在繼續之前都是可核查的。
即用提示範本:
--- 我們將逐步完成這項任務。在我確認當前步驟正確之前,請勿進行到下一步。僅執行步驟一:【第一個子任務】。完成步驟一後停下來,等待我的反饋。
技術六:建立個人核實習慣
沒有任何提示技術能完全消除幻覺。最後一道防線是一個持續的個人習慣:在使用任何具體、高風險的陳述之前核實它。這意味著對照具名來源核查統計數字、確認網址確實可訪問,以及在草稿離手前交叉核實具名實體的細節(人物頭銜、公司名稱、日期)。
一個實用的系統:用 AI 生成初稿,然後帶著明確的核實意識閱讀。標記每一個具體數字、具名來源和專有名詞。隨機抽查其中 20%。對於面向客戶或法律相關的內容,全部核查。這對一篇 1000 字的文件需要 5–10 分鐘,能捕捉到大多數關鍵性錯誤。
根據 Lakera 2026 年的 LLM 幻覺指南,將提示防護機制與核實工作流程結合使用的從業者,在最終輸出中關鍵性幻覺率低於 2%,而僅依賴模型輸出而不審閱的用戶則高達 15–20%。
懂AI,更懂你——UD相伴,AI不冷。這六個技術代表著「偶爾讓你失望的 AI」與「在你工作流程中穩定運作的 AI」之間的實際差距。模型已足夠強大,你為它建立的系統決定了這種力量是否穩定。
建立能穩定輸出結果的 AI 工作流程
你現在已掌握六個經過驗證的 AI 幻覺減少技術。下一步是將這些技術整合到可重複執行的工作流程中,而非臨時性地應用它們。UD 團隊手把手帶你完成每一步——從提示系統設計到能真正擴展的輸出核實工作流程,讓 AI 成為你可以信任的工作夥伴。