購物車

Midjourney V7:大多數人忽略的新功能與完整使用技巧

2026-04-24

Midjourney V7 到底改變了什麼?

大多數人用 Midjourney V7,還是用回 V5 的方式在提示——然後納悶為什麼效果沒有明顯提升。問題不在模型,在於 V7 最強大的功能需要你主動設定。Draft Mode、模型個人化、Omni Reference,這三項功能都不是自動生效的,必須手動啟用。一旦啟用,工作流程會有根本性的改變。

Midjourney V7 於 2026 年初以 Alpha 版本推出,是平台自 V5 以來最重大的架構升級。它是首個預設開啟模型個人化的版本,首個引入 Omni Reference 跨圖一致性功能的版本,也是首個支援原生影片生成(最長 21 秒)的版本。在圖像質量上,V7 在處理手部細節、建築結構和複雜紋理方面,比 V6.1 有顯著改善。

 

Draft Mode 是什麼?如何用它節省 60% 的生成點數?

Draft Mode 是 V7 最值得立刻使用的功能。它的生成速度是標準模式的 10 倍,消耗的 GPU 點數只有一半。Draft Mode 的設計定位是「探索階段」——用於快速確認構圖和方向,而非直接輸出最終成品。

在網頁版啟用 Draft Mode 後,提示欄會切換為「對話模式」。你描述想要的內容,幾秒後看到結果,再用自然語言修改——例如「把背景換成夜晚的天台」或「讓燈光暖一點」,它會自動調整提示詞並重新生成。找到滿意的方向後,點擊「Enhance」以完整品質重新渲染。

正確工作流程:用 Draft Mode 迭代 5–10 次鎖定構圖和風格,然後用一次 Enhance 渲染最終輸出。根據 Midjourney 官方文件,這個方法在創作探索密集的項目中,可節省約 60–70% 的 GPU 點數。在 Discord 使用時,在提示詞末尾加上 --draft 即可啟用(對話模式僅限網頁版)。

 

模型個人化功能如何設定?為什麼你現在就要做?

V7 的模型個人化功能讓模型學習你的審美偏好,並根據你的品味調整默認輸出風格。這個功能在 V7 中預設開啟——如果你沒有設定個人化檔案,V7 目前正在套用一個通用審美,而不是你自己的。設定過程是一次性的,大約需要 15 分鐘。

設定步驟:進入 Midjourney 網站,點擊側邊欄的「Personalize」按鈕。系統會顯示成對的圖像,讓你選擇更喜歡哪一張。至少評分 200 對才能解鎖 V7 的個人化功能,進階用戶通常會評分 500 對以上以獲得更精準的校準效果。你的個人化檔案綁定帳號,會自動套用在所有 V7 生成中。

設定完成後的變化:如果你持續選擇高對比度的編輯風格照片,V7 會開始默認使用更強烈的打光和更具張力的構圖——即使你沒有在提示詞中特別指定。如需要為客戶項目輸出中性風格,在提示詞末尾加上 --no personalization 即可停用個人化。

 

Omni Reference 是什麼?如何用它確保跨圖視覺一致性?

Omni Reference(--oref)是 V7 針對 AI 圖像生成長期痛點——跨圖視覺一致性——的解決方案。當你需要同一個產品、角色或視覺風格在多張圖像中保持一致時,Omni Reference 讓你鎖定一張參考圖,並控制 V7 對這張圖的遵循程度。

使用方式:將參考圖上傳至 Midjourney,複製其 URL,在提示詞末尾加上 --oref [圖片URL] --ow [0–100]--ow 是「Omni Weight」——0 代表鬆散參考(僅借鑒情緒和色調),100 代表嚴格參考(緊密貼合視覺外觀)。商業產品圖系列中需要保持包裝設計一致性時,使用 --ow 80–100;只想借鑒某張圖的氛圍或色盤時,使用 --ow 20–40

Omni Reference 與舊有的 --cref(角色參考)參數不同——後者只適用於角色臉部和姿勢,而 Omni Reference 適用於物件、產品、場景和建築元素,對商業內容工作流程更具實用性。

 

V7 的 Film LUT 和鏡頭控制參數如何使用?

V7 引入了兩個讓從業者對視覺語言擁有精確控制的參數:Film LUT 和鏡頭控制。兩者都通過在提示詞中使用自然語言描述符來實現,無需切換任何設定面板。

Film LUT 在生成過程中直接套用電影級色彩調色,而非事後後期處理。V7 對電影攝影師和攝影師使用的調色語言有明確回應。在 V7 提示詞中效果明確的 LUT 描述範例:「Kodak Portra 400 底片模擬,暖色高光,輕微顆粒感」(適合溫暖編輯風格);「Fuji Velvia 色彩飽和度,豐富的綠色和藍色,高對比」(適合自然和風景題材);「霧面效果,提亮黑位,青綠色陰影,橙色膚色」(適合現代商業美學)。

鏡頭控制 通過焦距和光圈描述詞模擬真實攝影光學效果。V7 對以下描述有準確回應:「24mm 廣角」帶來環境感和邊緣畸變;「85mm 人像鏡」帶來自然透視和主體分離感;「f/1.2」帶來極淺景深和明顯散景;「f/11」全景深清晰,適合建築和風景題材。將兩者結合使用——「Kodak Portra 底片模擬,85mm 鏡頭,f/2.0,黃金時刻光線」——可生成與真實攝影流程非常接近的視覺效果。

 

立即試用:一個可複製的 V7 提示詞範本

以下提示詞範本整合了本文介紹的 V7 核心功能。複製後根據你的使用場景修改主體和環境描述:

--- 香港商業人士,30–38 歲,自信放鬆的表情,在光線充足的現代共用工作空間使用筆記型電腦,左側大窗戶透入柔和的自然光,編輯商業攝影風格,Kodak Portra 400 底片模擬,85mm 鏡頭 f/2.0,背景淺景深,無文字或標誌 --v 7 --ar 16:9 --s 750 --q 2

先用 Draft Mode 迭代 4–5 次確認構圖方向,再點擊 Enhance 輸出最終交付品質。生成品質與之前幾乎相同,但花費的點數只有以前一半。

懂AI的冷,更懂你的難——UD 同行 28 年,讓科技成為有溫度的陪伴。工具只是起點,把它整合進可重複的工作流程,才是真正的效率提升。

 

下一步:把 AI 工具整合進你的工作流程

掌握了 Midjourney V7 的核心功能後,下一步是建立一套可重複執行的 AI 圖像生成工作流程。UD 團隊手把手帶你完成每一步——從工具設定、提示詞系統設計到實際工作流程部署,讓 AI 真正為你日常工作所用。

先測試一下你目前的 AI 工具掌握程度: