DragDiffusion就不再过多介绍。这是之前的一个Win10部署工作。文章链接这里就不贴了。
源代码
直接上Win10改好的程序下载链接:CSDN下载
Github我没有上传,因为实在是太大了。。。
接下来,您需要下载好上述文件,同时您需要去Github上下载StableDiffusion的预训练模型。
接下来进入正题:
基础的网络部署,和源代码一模一样;除此之外,我们需要调用Diffusion model v1.5的预训练模型,在主目录下建立一个runwayml的文件(名字无所谓),将所有的预训练文件放在里面。目录如下所示。
接下来,就是环境问题:
首先,DragDiffusion的环境配置最好一模一样;
下方图像中标红的部分,必须一摸一样
接下来就是运行环节。
我已经改进了大部分的bug并且删除了大量无关紧要的句子
由于Diffusion model的diffuser自带的库和DragDiffusion存在冲突
我删减了部分冲突的函数。
并且规范了一下gradio的版本
首先,我们需要linux的运行部分。
由于windows不具备bash的能力,因此,你需要下载bash:
windows环境下执行bash文件_windows运行bash-CSDN博客
并且添加环境变量。参考上面的链接在Pycharm里面进行部署。
首先,在主目录的终端,执行模型加速的命令:
accelerate config
报错和警告不用管,因为我不确定这玩意儿是否有用;
我在lora中添加了别人的加速命令
接下来,重中之重:
我们来看train_lora.sh文件:
第一行:sample_dir:是输入图像的文件位置(只能有一个,不然会爆炸)
第二行:OUTPUT_DIR:是输出的LORA点阵的模型文件位置
第三行:MODEL_NAME:是你下载的diffusion_Model的预训练模型放置的位置
Ok,其他的我已经调好了!!!!别改!!!!别改!!!!
我已经试错了,别再试错。
接下来,运行这个脚本。
使用:bash lora/train_lora.sh
OK!它就开始生成了,等它生成完之后,会在目录中生成一个这个文件:
其实这是几种规格,我们使用checkpoint-200.你可以直接使用我这个,不用再进行训练;
如果再训练,记得备份!!!!!!!!!!!!!!!!!!!
接下来,就可以开始操作了:
直接pycharm运行drag_ui.py
它会弹出一个ip:
复制这个ip,放在浏览器里,会展示如下画面:
点击第一个框,选择我们训练的图片!!!!!
用画笔画出你想变形的部分;
点击第二个框,进行拖拽;
重点来了;
Lora路径为我们训练的Lora的模型路径;
接下来,点那个RUN就可以开始生成了。
这是生成效果;
单张图像的训练,必须要单独训练LORA