購物車

什麼是 AI 微調?讓 AI 學會你業務的語言

2026-04-23

什麼是 AI 微調(Fine-Tuning)?60 字精準定義

微調(Fine-Tuning)是指將已經訓練好的 AI 模型(例如 GPT-4、Claude),再用你公司的實際數據——過往客戶電郵、產品描述、內部文件——進行額外訓練,讓 AI 學會你的語氣、規則和工作流程。通用模型提供的是基礎智能,微調為模型加上你業務的「獨特指紋」。

簡單比喻:就像你聘請一個已經懂英文的大學畢業生,再花一星期教他認識你的餐牌、供應商名單和回覆客人的語氣。那一星期的在職培訓,就是微調。

你不是從零開始建立 AI,而是把一個已經夠聰明的模型,調教成符合你業務需要的樣子。

 

AI 微調究竟如何運作?

微調的核心機制是:把幾百至幾千組「輸入—輸出」範例餵給模型,讓它調整內部的權重,令將來的回應更貼近你的範例。

舉例:一家餐廳準備 800 條過往客戶查詢,配上 800 條員工實際回覆,打包成訓練數據。完成微調後,模型未來的回覆會自動貼近真實員工的語氣、禮貌程度,甚至包含粵語與英文混合的用字方式。

三個關鍵步驟:

--- 第一步:收集範例。通常需要 300 至 2,000 組高質素的「輸入—輸出」配對,來自過往電郵、對話紀錄、FAQ 等。

--- 第二步:上載與訓練。將範例上載到 OpenAI、Anthropic 或自架模型,訓練時間一般 1 至 6 小時,視乎數據量。

--- 第三步:得到專屬模型編號。你會獲得一個獨有的模型 ID(例如 ft:gpt-4:your-company:2026-04),日後呼叫時用這個編號代替通用模型。

你得到的不是「新」的 AI,而是「你的」AI——底層智能一樣,只是風格已經貼近你業務。

 

微調與提示、RAG 有什麼分別?

提示(Prompting)、RAG(檢索增強生成)和微調是三種不同的 AI 客製化方式,解決的問題不一樣。提示每次改變指令;RAG 執行時查找文件;微調則是改變模型本身。

一個方便記憶的比喻:

--- 提示像是每朝都給新員工一份新指令。成本低、有彈性,但下一次對話就會忘記。

--- RAG 像是給員工一個文件櫃,他需要時自己去查。對「事實」表現出色,對「語氣」相對較弱。

--- 微調像是把員工送去一星期的入職培訓。完成之後,行為模式就已經內建。

根據 OpenAI 2024 年的開發指引,大部分業務場景應該先由提示開始,有需要查事實才加入 RAG,只有當「風格、格式或特定行為」比「知識」更重要時,才應考慮微調。

 

香港中小企什麼時候才值得微調?

當你的業務有一個重複出現、但單靠提示無法穩定捕捉的模式——例如特定語氣、結構化輸出格式、或者行業專門用語——那就是微調發揮價值的時候。一次性任務或普通問答,微調反而是殺雞用牛刀。

值得微調的強烈訊號:

--- 你希望客服回覆必須完全貼近品牌語氣——親切、正式、或者特定粵英混合的風格。

--- 你需要 AI 每次都以同一個嚴謹格式輸出——例如把發票資料整理成會計軟件接受的特定 JSON 結構。

--- 你涉及大量行業專門詞彙——物業合約條款、保險條文、醫療收費代碼——通用 AI 經常有些微偏差。

--- 你希望用較小、較便宜的模型(例如 GPT-4o mini、Claude Haiku)達到大模型的水平。OpenAI 2024 年的基準測試顯示,微調後的 GPT-4o mini 在特定任務上可達到 GPT-4 的質素,但成本只有大約十分之一。

不建議微調的情況:你只有 20 至 30 個例子;你真正的問題是 AI 缺乏資料(這種情況用 RAG);或者你還未確定 AI 是否能解決這個問題。

 

微調對小型企業來說成本幾多?

微調的成本分兩部分:一次性的訓練成本,以及之後每次使用模型的計算成本。以香港中小企的典型情況計算,首年總成本通常介乎港幣 800 至 8,000 元之間——遠低於大部分老闆想像中的數字。

典型成本結構(以 OpenAI GPT-4o mini 2026 年定價為例):

--- 訓練費用:大約每一百萬訓練 token 收費 3 美元。1,000 個例子、平均每條 500 字的數據集,一次訓練費用大約 7 至 15 美元。

--- 使用費用:微調模型每次呼叫大約是通用模型的 2 倍。如果店舖每日處理 200 條 AI 草擬的客戶回覆,每月大約 15 至 40 美元。

--- 工程時間:這才是真正的大頭。準備一個乾淨的數據集,通常需要 10 至 30 小時的員工或外判時間。

對比香港一名兼職客服月薪 15,000 至 25,000 港元,微調在重複性工作流程上幾乎一定划算。

 

微調最常見的錯誤有哪些?

最昂貴的微調錯誤,通常在訓練開始之前就已經犯下——錯在數據本身。Gartner 2024 年一份企業 AI 項目分析指出,85% 的微調失敗,根本原因是數據質素問題,而不是模型問題。

中小企最常跌進的四個陷阱:

--- 例子太少。少於 50 對輸入輸出,微調後幾乎等於沒微調。大部分任務需要 300 對以上的乾淨例子。

--- 風格不一致。一半例子輕鬆、一半例子正式,結果模型學會「隨機不一致」,比不微調更差。

--- 語言混合但結構混亂。香港數據經常混用英文、繁體中文和粵語——可以接受,但每一個例子內部必須保持一致。

--- 把提示能解決的問題拿來微調。很多「要微調」的需求,其實一個下午寫一個好的提示模板就能解決。永遠先試提示,再決定是否微調。

處理方法永遠一樣:先清理數據、先測試純提示版本、當差距真實且持續存在時才微調。

 

微調模型可以用多久才需要重訓?

微調模型的價值會持續,直到你的業務數據或語氣出現明顯改變為止。當產品線、定價或品牌語氣大幅更新時,就要重新訓練。大部分香港中小企的做法是 6 至 12 個月重新微調一次。

微調下面的基礎模型本身也在進化。當 OpenAI 推出 GPT-5、Anthropic 更新 Claude 時,你的微調仍然綁定在舊版基礎模型上,直到你選擇升級。這不是缺點,反而是優點——代表新模型發佈當日,你的 AI 行為不會無故變樣。

常見做法是:每季安排一次「微調更新」,配合產品或定價調整。成本不高(通常一次低於 500 港元),但能保持模型與現實業務同步。

 

香港中小企老闆的結論

微調已經不再是大型企業的專利。一間擁有 500 條客戶電郵紀錄的小店,數據量已經足夠訓練一個能 24 小時用自家語氣回覆客人的專屬 AI,而成本不到一名員工一個月的薪金。

真正的障礙,不是技術,而是不知道從何入手——要收集什麼數據、選哪個模型、甚至「微調」究竟是不是你那個問題的答案。這正是 AI 顧問夥伴存在的理由。

懂AI,更懂你。UD相伴,AI不冷。

 

讓 AI 真正聽得懂你的業務語言

微調聽起來好像很技術,但它背後的決定,其實全部都是業務決定,不是工程決定。
UD 與香港中小企同行 28 年,手把手教你每一步:評估你的業務是否適合微調、整理你的數據、選擇合適的基礎模型,到最後部署屬於你的專屬 AI 員工。
你帶業務來,我們帶 AI 專業知識。