Stable Diffusion核心功能与界面解析

Stable Diffusion通过文本描述生成图像,其WebUI界面包含多个关键模块:左上角选择基础模型(如chilloutmix生成真人风格),主操作区分为文生图(txt2img)和图生图(img2img)。右侧参数面板支持调整采样器(推荐Euler a)、采样步数(20-50步)、图像尺寸(512×512或1024×1024)和提示词引导系数(7-12区间)。种子值设为-1时生成随机图像,固定数值可复现相同结果。

模型选择与安装指南

模型分为Checkpoint(主模型,2-7GB)、LoRA(风格微调)、VAE(画质增强)三类。国内推荐访问哩布哩布AI(liblib.ai)和吐司(tusiart.com),国外可选Civitai(需科学上网)。下载后按类型放置:

  • Checkpoint模型:/models/Stable-diffusion
  • LoRA模型:/models/Lora
  • VAE模型:/models/VAE
安装后需在WebUI界面刷新模型列表,多模型叠加使用时需调整触发权重。

提示词工程与参数优化

遵循「画质+主体+细节+环境」公式构建英文提示词,例如:

masterpiece, best quality, 1girl, detailed eyes, beach sunset
负面提示词规避异常生成:
mutated hands, extra limbs, blurry, low resolution
进阶技巧包括:
  • 权重控制:用( )增加权重,[ ]降低权重,例如:(red hair:1.3)
  • 分步描述:用BREAK分隔不同生成阶段
  • 艺术家风格:引用如"by Greg Rutkowski"增强画面表现

高级图像控制技术

结合ControlNet插件实现精准构图:

  • OpenPose:依据骨骼图生成人物动作
  • Canny Edge:基于线稿控制画面结构
  • Depth Map:按景深分布生成立体场景
使用Tiled Diffusion插件生成8K超清图像,配合MultiDiffusion技术避免显存溢出。高清修复(Hires. fix)建议设置重绘幅度0.3-0.5,缩放倍数2x。

工作流优化与效能管理

配置xFormers加速生成速度,开启--medvram参数优化显存占用。推荐使用秋葉aaaki整合包实现一键启动,定期清理临时文件保持系统流畅。云端部署建议选择显存12GB以上的GPU实例,本地运行需确保NVIDIA驱动更新至535版本以上,CUDA工具包安装11.8版本。