本地运行stable-diffusion3.5
本地运行stable-diffusion3.5
AI 时代不可阻挡,给老机器加了个4060 16G 显卡,尝试本地运行stable-diffusion3.5。
准备工作
先尝试UI 手动跑跑看,ComfyUI 推荐的比较多,首先尝试在ComfyUI 里面跑。
下载ComfyUI 和需要的模型文件
第一次模型尝试,先下载:https://github.com/comfyanonymous/ComfyUI/releases/latest/download/ComfyUI_windows_portable_nvidia.7z
下载之后解压到本地目录。
从资料看16G 的显存应该可以跑stable-diffusion-3.5-large, 外网访问Hugging Face 可以下载,需要登录,但是代理一般的话,总是失败。
国内可以从魔塔社区下载:https://www.modelscope.cn/models/AI-ModelScope/stable-diffusion-3.5-large。速度快很多,而且不容易因为网络问题出现文件损坏的情况。
需要下载以下几类SD3.5 文件
模型文件:sd3.5_large.safetensors
下载之后放到ComfyUI_windows_portable\ComfyUI\models\checkpoints中
Clip模型文件
魔塔社区中的位置是text_encoders目录下,有三个文件:
- clip_g.safetensors
- clip_l.safetensors
- t5xxl_fp8_e4m3fn.safetensors
下载之后,放到ComfyUI_windows_portable\ComfyUI\models\clip
工作流配置文件
SD3.5L_example_workflow.json
这个下载好后,等启动ComfyUI 之后,拖到浏览器中就可以。
启动ComfyUI
启动
有nvidia显卡,双击run_nvidia_gpu.bat启动。这一步据说需要提前安装其他显卡相关的东西,我以前弄显卡的时候,下载过相关的包。具体哪些不记得了,启动没有任何问题。会自动打开浏览器,访问http://127.0.0.1:8188/
把上面的SD3.5L_example_workflow.json拖到这个页面中就可以。
在工作流中分别选中三个Clip 模型
- clip_g.safetensors
- clip_l.safetensors
- t5xxl_fp8_e4m3fn.safetensors
在CLIP文本编码(提示)中输入自己的提示词,点击最下方的执行,等待一段时间看到图片预览就算成功了。
预览的图片可以右击下载到本地。
sd3.5_large_turbo
我的机器有点旧,large 模型跑一张图片需要 2.6 到4.6 分钟,尝试以下larg turbo。
准备
下载sd3.5_large_turbo.safetensors 放到ComfyUI_windows_portable\ComfyUI\models\checkpoints里面
重新启动run_nvidia_gpu.bat。
把SD3.5L_Turbo_example_workflow.json 拖进去,修改模型文件中的clip 模型文件。
重新跑,第一次好像确实有一倍提升,第二次跑速度快多了!