稳定扩散(Stable Diffusion)是一种通过加入额外条件来控制神经网络结构的扩散模型。最近,推出了ControlNet v1.1版本,该版本在AI生成图片方面更加精准。
相比于内置的”图生图”技术,ControlNet能够更好地让AI以指定的动作生成图片。此外,结合3D建模作为辅助,可以解决单纯使用文本生成图片时手脚、脸部表情不准确的问题。
ControlNet的用途还包括上传人体骨架线条,通过ControlNet生成完整的人物图片。或者上传素色的3D建模,让ControlNet生成室内布置家具。
ControlNet的开发者是Lvmin Zhang,Mikubill则负责开发扩展功能,使我们可以在Stable Diffusion中使用ControlNet生成图片。
- 安装ControlNet与下载模型
首先切换至Extensions页面,点击”Install From URL”,然后输入URL”https://github.com/Mikubill/sd-webui-controlnet.git”,点击”Install“。接着在终端中按下CTRL+C,关闭Stable Diffusion WebUI。
然后从lllyasviel/ControlNet v1.1下载以.pth结尾的模型文件,这些文件总共约占用18GB的空间。不需要下载.yaml文件。目前v1.1版本是测试版,之后会合并到主保存库中。
将这些模型文件放到stable-diffusion-webui/extensions/sd-webui-controlnet/models文件夹中。
重新启动Stable Diffusion WebUI。
- 各个模型的用途
ControlNet目前提供以下模型,您可以根据需求选择下载需要的模型。
Anime Lineart:用于侦测线条,在生成的图片中也会保留原始线条,适用于处理动漫图像。
Canny:用于侦测图片边缘,效果比较模糊,不如Scribbles完整。
Depth:用于侦测输入图片的深度图。
Illumination:用于侦测输入图片的光源和照明效果。
Inpaint:类似于”内补绘制”,使用50%随机遮罩和50%随机光流遮罩进行训练。
Instruct Pix2Pix:模型文件名为ip2p,类似于”图生图”,但是使用了50%的指示提示词和50%的叙述提示词进行训练。由于是ControlNet,使用此模型时不需要调整CFG Scale。
根据原作者的说法,使用”使其成为X”的提示词生成的图像效果比”使Y成为X”要好。
Lineart:用于侦测线条,适用于处理线稿,生成的图片也会保留原始线条。
M-LSD:用于侦测输入图片的直线。
Normalbae:
Openpose:使用OpenPose技术侦测输入图片中人物的动作,不一定会保留线条。
Scribbles:用于侦测线条,侦测到的线条质量介于Soft Edge和Lineart之间。
Segmentation:模型文件名为seg,将侦测到的图片对象切割成一个个色块进行处理,例如将房子切割成一个色块,将天空切割成另一个色块。
Shuffle:将输入图片的概念转移到生成的图片中。
作者给出的例子是,输入一张灰色的装甲图片,生成的钢铁人盔甲也会是灰色的。
Soft Edge:用于侦测图片边缘,效果比较柔和,像是用炭笔涂过的。
Tile:输入一张图片,选取其中的一个区域,使其变得清晰。
- 参数解释
安装完成后,WebUI界面中会出现”ControlNet”按钮。
点击该按钮后,会显示以下选项:
Single Image:上传单张图片。
Batch:处理多张图片。在”Input Directory”中填写待处理图片所在的路径。
Open New Canvas:清除图片,开启新的画布。
使用电脑镜头:在”Open New Canvas”选项下面有四个按钮。
从左到右依次是:添加画布、使用电脑镜头拍照上传、未知、还原上次算图设置。
Enable:在生成图片时激活ControlNet,必选。
Low VRAM:生成图片时使用ControlNet会占用更多的VRAM,此选项可降低VRAM的使用量。
Pixel Perfect:由ControlNet自动决定预处理器的分辨率。
Allow Preview:允许预览生成图片的结果,会显示该模型侦测到的线条或骨架。
Preprocessor 预处理器:通常预处理器和模型两者要保持一致。
预处理器会对上传的图片进行处理,例如Scribbles会将彩色图片转换成线稿。如果您的图片不需要处理,则可以将预处理器设置为空。
Run Preprocessor(爆炸图标):运行预处理器,预先处理图片。
Model 模型:设置生成图片时使用的ControlNet模型。
Control Weight:ControlNet在生成图片时的权重。
Starting Control Step:ControlNet开始参与生成图片的步骤。
Ending Control Step:ControlNet结束参与生成图片的步骤。
Preprocessor Resolution:预处理器的分辨率。
如果不确定要设置多少,请勾选”Pixel Perfect”让ControlNet自动决定。
Control Mode (Guess Mode):在生成图片时控制AI平衡两者(Balanced),还是更偏重于您的提示词(My prompt is more important),还是更偏重于ControlNet(ControlNet is more important)。
[Loopback] Automatically send generated images to this ControlNet unit:自动将生成的图片传回此ControlNet运算单元。
是的,如果您的电脑的VRAM足够大,您可以在Settings → ControlNet中激活多个ControlNet运算单元。
Multi ControlNet:一个ControlNet效果不够好,您是否考虑过激活第二个、第三个ControlNet呢?
默认安装后只会使用一个ControlNet,但是叠加多个ControlNet有助于生成更好的图片。例如同时使用Open Pose和Depth生成人体,并防止手绘歪斜。
要激活Multi ControlNet,请进入Settings → ControlNet,拖动滑块设置要激活的ControlNet数量。
- 实际操作
以改绘一个人物姿势为例。
在安装完成后,WebUI界面中会出现”ControlNet”按钮。
在文生图页面填入提示词后,点击下方的ControlNet按钮,勾选Enabled激活ControlNet,并上传图片。勾选Low VRAM可降低VRAM的占用。
接着选择要使用的预处理器和模型,两者要保持一致。预处理器会对上传的图片进行处理,例如Scribbles会将彩色图片转换成线稿。如果您的图片不需要处理,则可以将预处理器设置为空。
以Scribbles为例,选择预处理器后,点击右上角的Generate按钮即可生成结果,并附上侦测到的线条。如下图所示,右边的贞德的姿势确实与左边的02十分类似。
这就是ControlNet的一些基本使用方法和参数解释。通过ControlNet,AI能够更加精准地生成图片,满足不同需求。在使用过程中,您可以根据具体情况选择合适的模型和参数,以获得最佳的生成效果。
原创文章,作者:SD中文网,如若转载,请注明出处:https://www.stablediffusion-cn.com/sd/sd-use/1596.html
![微信扫一扫](https://www.stablediffusion-cn.com/wp-content/uploads/2023/08/2023080516022538.png)
![支付宝扫一扫](https://www.stablediffusion-cn.com/wp-content/uploads/2023/08/alipay.png)
相关推荐
-
Stable Diffusion Upscaler 是什么?
Stable Diffusion Upscaler是一种图像高清修复算法处理的技术,它采用了AI Upscaler这一模型学习技术。与传统的Upscaler不同,Stable Di…
2023年10月6日 -
Stable Diffusion 需要付费吗?
欢迎来到Stable Diffusion中文网!我们是一个免费的开源项目,为用户提供了一个稳定的扩散平台。与其他付费项目不同,Stable Diffusion是完全免费的,无需支付…
2023年10月2日 -
Textual inversion放在哪个文件夹?
Textual Inversion(文本反转)是指将文本转化为嵌入式(embedding)表示的过程。而Aesthetic Gradient(美学风格)和其他内容,大家应该都已经很…
2023年10月8日 -
Civitai Helper怎么安装?
如果你想要安装Civitai Helper,下面是一些简单的步骤来帮助你完成安装过程。 步骤一:在C站上搜索Civitai Helper 首先,打开C站网站并在搜索栏中输入“Civ…
2023年10月4日 -
stable diffusion AI绘图电脑配置要求(推荐显卡)
Stable Diffusion是一个由Stability.AI开发的开源AI绘图软件。它可以用来生成逼真的图像,包括肖像、风景和抽象艺术。Stable Diffusion对电脑配…
2023年8月9日 -
获取Stable Diffusion零基础入门课程
👉【立即购买】 👉【免费试看】 Stable Diffusion中文网零基础入门课程 目前课程共4章、84节,总时长9小时37分32秒,平均单节时长6分53秒 录播视频课程在线学习…
-
stablediffusion要连接外网吗?(使用内网穿透,随时随地使用AI绘画)
如果您想在内网使用 Stable Diffusion,可以使用内网穿透技术来将 Stable Diffusion 的服务器连接到互联网。内网穿透技术可以将内网中的服务器映射到公网 …
2023年10月17日 -
Safetensors是什么文件?
什么是Safetensors文件? Safetensors是谷歌开发的一种TensorFlow Lite模型文件格式,旨在在移动设备上运行模型。这种文件格式使用了.safetens…
2023年10月6日 -
Stable Diffusion借助ControlNet 生成艺术二维码教程
在数字化时代,二维码已成为商业和社交交流的重要工具。然而,近年来,一种全新的二维码形式——艺术化的二维码,正逐渐崭露头角。艺术化的二维码不仅具备传统二维码的功能,还融入了独特的艺术…
-
stable diffusion常用参数说明:生成批次、每批数量和尺寸应该如何设置
在使用Stable Diffusion进行图像生成时,合理设置生成批次、每批数量和尺寸是非常重要的。本文将为您详细介绍这些参数的设置方法,帮助您更好地应用Stable Diffus…
2023年8月15日