Stable Diffusion是目前最受歡迎的開源AI繪圖工具,與Midjourney不同的是,它可以完全免費在本地運行,讓您擁有完全的隱私控制和定制自由度。本教學將帶您從零開始,掌握Stable Diffusion的安裝和使用。
🤖 Stable Diffusion是什麼?
Stable Diffusion是由Stability AI開發的開源AI圖像生成模型,於2022年8月發布。與其他商業AI繪圖工具相比,它具有以下優勢:
- 完全免費:開源免費使用,無需訂閱費用
- 本地運行:保護隱私,無需上傳圖片到雲端
- 高度定制可安裝各種擴充功能和模型
- 離線使用:配置完成後可離線生成圖片
- 資源豐富:龐大的社群支援和模型庫
💻 硬體需求
Stable Diffusion對顯示卡要求較高,以下是基本和建議的硬體配置:
最低需求
- 顯示卡:NVIDIA GTX 1060 6GB 或同等級 AMD 顯示卡
- 記憶體:8GB RAM
- 硬碟空間:至少20GB可用空間
- 作業系統:Windows 10/11、Linux 或 macOS
建議配置
- 顯示卡:NVIDIA RTX 3060 12GB 或更高(RTX 4070/4080/4090)
- 記憶體:16GB RAM 或以上
- 硬碟空間:100GB以上(SSD推薦)
- 顯示卡記憶體越大,可生成的圖片解析度越高
⚠️ NVIDIA 顯示卡的重要性
Stable Diffusion對NVIDIA顯示卡的優化最好,建議使用NVIDIA顯示卡以獲得最佳效能。AMD顯示卡雖然可以使用,但速度和穩定性會較差。
🚀 安裝教學
方法一:使用AUTOMATIC1111 WebUI(推薦)
這是最受歡迎的Stable Diffusion圖形介面,安裝步驟如下:
- 安裝Python 3.10:從python.org下載並安裝Python 3.10.x版本
- 安裝Git:從git-scm.com下載並安裝Git
- Clone專案:打開命令提示字元,執行以下指令:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
- 下載模型:從Hugging Face下載Stable Diffusion模型檔案(.ckpt或.safetensors)
- 執行啟動腳本:雙擊執行webui-user.bat(Windows)或webui.sh(Linux/Mac)
方法二:使用ComfyUI
ComfyUI是另一個流行的Stable Diffusion介面,採用節點式工作流程,更適合進階用戶:
- 從GitHub下載ComfyUI:git clone https://github.com/comfyanonymous/ComfyUI
- 安裝依賴:pip install -r requirements.txt
- 下載模型並放入正確的資料夾
- 執行run_cpu.bat或run_gpu.bat
💡 新手推薦:秋葉整合包
如果覺得安裝過程太複雜,網路上有許多整合包可供下載,例如知名的「秋葉整合包」,已經包含了所有必要的設定,下载後即可直接使用。
🎨 基本使用方法
介面介紹
WebUI的主要區域包括:
- Prompt區域:輸入正向提示詞(想要生成的內容)
- Negative Prompt:輸入負向提示詞(不想出現的內容)
- 參數區域:設定生成數量、步驟、解析度、CFG Scale等
- 生成按鈕:點擊Generate開始生成
- 輸出區域:顯示生成的圖片
基礎參數說明
- Steps(步驟):生成過程的迭代次數,通常20-30即可
- CFG Scale:提示詞影響程度,7-12為最佳範圍
- Sampler(採樣器):不同的採樣算法,Euler a和DPM++ 2M較為流行
- 尺寸:預設為512x512,可根據需求調整
- Seed(隨機數):相同seed可重現相同結果
📦 模型與擴充功能
常見模型類型
- Checkpoint模型:基礎大模型,如SD 1.5、SDXL、Counterfeit等
- Lora模型:小型訓練模型,用於調整特定風格或角色
- VAE模型:改善圖片的色彩和細節
- Embedding模型:文字嵌入,用於特定概念或風格
熱門擴充功能
- ControlNet:精確控制姿勢、線條、深度等
- LoRA:訓練自定義風格或角色
- Stable Diffusion XL:最新更強大的基礎模型
- Deforum:生成動態影片
- Roop:換臉工具
🎯 模型下載網站
- Civitai:civitai.com(模型資源最豐富)
- Hugging Face:huggingface.co(官方模型下載)
- LiblibAI:liblib.ai(中文模型網站)
🎛️ 進階技巧
提示詞語法
- 括號:(word)增加權重,((word))雙倍權重
- 語法:[word1|word2]交替混合
- 權重:(word:1.5)設定特定權重
- 分隔:使用逗號分隔不同元素
ControlNet使用
ControlNet是Stable Diffusion最強大的控制工具之一,可以:
- Canny:根據邊緣線條生成
- Pose:根據姿勢骨架生成
- Depth:根據深度圖生成
- Seg:根據語義分割生成
- Scribble:根據手繪草圖生成
⚠️ 常見問題與解決方案
- 記憶體不足:降低batch size或使用優化技術
- 生成速度慢:使用更快的採樣器或升級顯示卡
- 圖片模糊:增加steps或使用高清修復功能
- 模型無法載入:檢查模型格式和存放位置是否正確
📈 總結
Stable Diffusion雖然入門門檻較高,但一旦掌握後,它提供的自由度和可能性是其他工具無法比擬的。建議新手從簡單的安裝方式開始,逐步學習各種功能和技巧,最終一定能創作出令人滿意的AI藝術作品。