sd-webui-controlnet开源项目 – 增强Stable Diffusion图像生成控制
sd-webui-controlnet 是一个为 AUTOMATIC1111 的 Stable Diffusion web UI 设计的扩展,允许用户将 ControlNet 和 T2I Adapter 模型集成到 Stable Diffusion 中,以实现更精准和可...
标签:AI图像工具 AI开发框架 AI开源项目ControlNet Stable Diffusion扩展 T2I Adapter 图像生成控制 批量生成图像AI交流(进群备注:sd-webui-controlnet)

sd-webui-controlnet 是一个为 AUTOMATIC1111 的 Stable Diffusion web UI 设计的扩展,允许用户将 ControlNet 和 T2I Adapter 模型集成到 Stable Diffusion 中,以实现更精准和可控的图像生成。它支持 ControlNet 1.0/1.1 和 T2I Adapter 模型,提供像素完美模式、用户友好的 GUI 和预处理器预览,以及对多种 Upscaling 脚本的支持。
sd-webui-controlnet的特点:
- 1. 支持 ControlNet 1.0/1.1 和 T2I Adapter 模型
- 2. 像素完美模式,自动计算最佳预处理器分辨率
- 3. 用户友好的图形界面和预处理器预览
- 4. 支持多种 Upscaling 脚本,如 Ultimate SD upscale 和 Tiled VAE/Diffusion
- 5. 多 ControlNet 输入,支持批量生成
- 6. 提供 API 和脚本访问,方便外部调用
sd-webui-controlnet的功能:
- 1. 通过 ControlNet 模型生成精确控制的图像
- 2. 使用 T2I Adapter 模型进行风格和颜色适配
- 3. 在 High-Res Fix 模式下生成高质量图像
- 4. 通过 API 或脚本批量生成图像
- 5. 使用多 ControlNet 输入进行复杂图像生成
相关导航

IMAGDressing是一个互动式模块化服装生成系统,旨在为用户提供逼真的虚拟试衣体验。它不仅可以生成高质量的服装图像,还能让用户自由编辑场景和服装细节。IMAGDressing利用增强现实(AR)和虚拟现实(VR)等技术,让用户能够在虚拟世界中尝试各种时尚组合,找到最适合自己的款式。它还能根据用户的个人身材数据、肤色、发型和生活场景,智能推荐最合适的服装搭配。IMAGDressing-v1引入了服装UNet模型,能够从CLIP中捕捉语义特征,并从VAE中捕捉纹理特征,通过混合注意力模块将这些特征整合到一个冻结的去噪UNet中,确保用户可以进行控制编辑。IMAGDressing团队还计划发布一个名为IGPair的综合数据集,包含超过30万对服装和穿着图像,并建立标准的数据组装流程。IMAGDressing-v1还可以与ControlNet、IP-Adapter、T2I-Adapter和AnimateDiff等扩展结合,以增强系统的多样性和可控性。