購物車

AI 幻覺是什麼?香港中小企老闆必讀指南

2026-04-22

什麼是 AI 幻覺?

AI 幻覺(AI Hallucination)是指人工智能模型在生成回應時,捏造了根本不存在的事實、數據或資訊——卻以十足自信的語氣呈現,讓讀者難以察覺其中的錯誤。與系統當機或明顯的亂碼不同,AI 幻覺的輸出看起來完全正常:語句流暢、格式專業、邏輯清晰,只是內容是假的。

AI 幻覺並非程式漏洞,而是大型語言模型(LLM)工作原理的根本特性。理解這一點,是每位使用 AI 的老闆必須掌握的第一課。

 

為什麼 AI 會產生幻覺?

AI 語言模型本質上是一個「預測引擎」,而非知識資料庫。它的工作原理是根據對話中已有的文字,預測下一個最合理的詞語。當被問到它沒有可靠資料的問題時,AI 不會說「我不知道」——它會繼續生成聽起來最合理的回應,即使那些內容是完全捏造的。

麻省理工學院(MIT)的研究發現,AI 模型在「幻覺狀態」下,反而比陳述正確事實時使用更具肯定性的語言。模型在生成錯誤資訊時,使用「肯定」、「毋庸置疑」等詞語的機率比正確時高出 34%。換句話說:AI 越是篤定地回答,你越需要小心核實。

還有一種叫「文件幻覺」的類型——即使你把自己的文件交給 AI 摘要,它仍可能捏造原文中根本不存在的細節。這一點對於依賴 AI 閱讀合約或政策文件的老闆尤為重要。

 

AI 幻覺有多常見?2026 年的實際數字

根據 Suprmind 發布的《2026 年 AI 幻覺研究報告》,即使是表現最好的 AI 模型,在基本摘要任務上的幻覺率仍至少有 0.7%。而在以下高風險領域,幻覺率大幅攀升:

--- 法律問題:幻覺率高達 18.7%
--- 醫療查詢:幻覺率達 15.6%,即使最優秀的模型 GPT-4o 最佳表現也有 23%
--- 一般事實問答:3% 至 8%,視模型及主題而定
--- 文件摘要:0.7% 至 5%,視文件長度及複雜程度而定

對於每週用 AI 生成 50 份文件的中小企而言,即使幻覺率只有 3%,每週就有約 1.5 份文件含有捏造資訊——全年累計超過 78 份,每一份都可能到達客戶、政府或合作夥伴的手中。

 

AI 幻覺在真實業務中是什麼樣子?

AI 幻覺很少以荒謬的形式出現。它們看起來就是一段措辭專業、邏輯合理但內容錯誤的文字。以下是三個香港中小企常見的場景:

場景一——捏造的法規:餐廳老闆詢問 AI 關於香港食物業牌照的申請步驟。AI 自信地列出五個步驟,包括一個根本不存在的表格編號和費用。老闆照指示提交,浪費了兩週和申請費用。

場景二——虛假的統計數字:市場部同事請 AI 撰寫新聞稿,並引用「行業調查數據」。AI 虛構了一個聽起來可信的機構名稱,配上具體百分比和年份。新聞稿發出後,有記者查不到原始報告,公信力受損。

場景三——錯誤的合約條款:零售店主用 AI 摘要供應商合約。AI 誤讀了付款條款,讓老闆以為付款期為 60 天,實際上合約寫明 30 天。第一張發票已產生逾期罰款。

 

AI 幻覺對業務造成多大的財務損失?

根據 Suprmind 2025 年的分析,全球因 AI 幻覺造成的商業損失估計在 2024 年達到 674 億美元。這包括因錯誤決策引起的直接損失、法律糾紛和客戶投訴,以及員工花費大量時間核實 AI 輸出的間接成本。

美國國家法律評論(National Law Review)引用研究指出,每名企業員工每年在處理 AI 幻覺相關核實和補救工作上,平均耗費公司約 14,200 美元。對於一個有 10 名員工每日使用 AI 的香港中小企,這一潛在隱性成本折合逾港幣 100 萬元。

除了財務損失,聲譽風險同樣不容忽視。客戶收到錯誤的 AI 生成資訊後,失去的是對你業務的信任,而非對 AI 工具的信任。責任始終在於部署 AI 的業務。

 

哪些業務任務的幻覺風險最高?

不同的 AI 任務帶來不同程度的風險。理解風險等級,可以讓你把核實的精力放在最關鍵的地方。

高風險任務——必須獨立核實後才行動:

--- 法律及法規資訊:牌照要求、合規規定、合約條款
--- 財務計算及稅務相關指引
--- 醫療、健康或安全相關查詢
--- 具體統計數字、引用研究或第三方數據
--- 任何涉及特定人名、公司名、產品或機構的內容

較低風險任務——可選擇性核實:

--- 起草電郵、社交媒體帖子及一般行銷文案
--- 摘要你可以與原文核對的文件
--- 生成創意想法、文章大綱及腦力激盪清單
--- 翻譯一般語言內容(非法律或醫療文件)
--- 格式化或整理你原先提供給 AI 的數據

 

香港中小企老闆如何保護自己?

防範 AI 幻覺不需要技術知識,只需要一套簡單的工作習慣,並貫徹執行。2026 年的研究顯示,啟用網絡搜索功能可將 AI 幻覺率降低 73% 至 86%。這意味著工具的選擇本身已是重要的防護措施。

五個實用步驟:

--- 先核實,再行動:把 AI 生成的所有事實、數字、法規和法律資訊視為初稿,而非定案。行動前,務必查閱至少一個權威原始來源。

--- 使用具備網絡搜索功能的 AI 工具:Perplexity、啟用瀏覽功能的 ChatGPT 或 Claude.ai 等工具,因能即時檢索真實資訊,幻覺率遠低於離線基礎模型。

--- 設立人工審查步驟:任何將呈交客戶、提交政府部門或用於合約的 AI 輸出,必須由指定人員在發出前審核。

--- 在提示中要求來源:在 AI 提示語中加入「請為所有統計數字或法規聲明提供來源」,迫使模型明示其不確定性,而非默默捏造引用。

--- 訓練團隊分辨高低風險任務:確保業務中每位使用 AI 的員工都清楚哪些任務需要強制核實,哪些可以較輕鬆使用。

 

善用 AI,從認識其限制開始

AI 幻覺不是拒絕使用 AI 的理由,而是提醒你要明智地使用它。未來五年,在競爭中勝出的企業,不是盲目信任每一個 AI 輸出的那些,也不是因為擔心幻覺而完全迴避 AI 的那些——而是那些理解 AI 局限、建立清晰核實習慣的業務。

把 AI 想像成一位能力出眾的新同事:擅長起草、摘要和提出想法,偶爾卻會無比自信地說出錯誤資訊。你不會因此辭退這位同事,而是會分配合適的工作、在輸出對外發送前進行審核。

懂AI,更懂你 — UD 相伴,AI 不冷。2026 年對業務最重要的 AI 技能,不是學會如何寫提示語,而是學會何時信任機器、何時自己核實。

 

想知道你的業務準備好用 AI 了嗎?

了解了 AI 幻覺的風險之後,下一步是評估你的業務是否已準備好安全地採用 AI 工具。UD 團隊手把手教你,從 AI 準備度評估到部署落地,全程陪你走每一步。