Mac M1安装stable diffusion webui教程及问题集锦
Posted 香谢枫林
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Mac M1安装stable diffusion webui教程及问题集锦相关的知识,希望对你有一定的参考价值。
这里写自定义目录标题
我的配置MacBookPro 14 M1
芯片:Apple M1 Pro
内存:16G
安装视频教程可参考如下链接:主播讲的挺清楚
mac如何本地部署stable diffusion (支持更换模组,支持M1,M2)
【mac如何本地部署stable diffusion (支持更换模组,支持M1,M2)】
安装步骤:
第一步:安装homebrew
https://brew.sh
建议修改brew源,否则下载比较慢,或者用梯子也行
然后安装必备组件:
brew install cmake protobuf rust python@3.10 git wget
PS:我安装的python 3.10.9,支持M1芯片(我是用annconda安装的)
第二步:安装pytorch
打开pytorch官网:https://pytorch.org/
在页面上选择安装的版本,如下,根据提示的安装命令执行即可:
pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cpu
第三步:安装stable diffusion webui
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
此处需要用梯子,不然很慢,或者就下载不了。我是直接去github把源码下载下来了:https://github.com/AUTOMATIC1111/stable-diffusion-webui
第四步:运行
cd到stable-diffusion-webui目录,运行webui.sh
cd /Users/xxx/stable-diffusion-webui(这是我的目录)
./webui.sh
PS:运行前请先往下看
问题1:系统运行容易卡在gfpgan、clip,所以建议提前安装好这些组件
pip3 install gfpgan
安装clip比较特殊,直接pip3 install clip只能安装0.2.0版本,CLIP反推功能无法正常使用(但是系统可以正常运行起来),1.0版本clip安装方式如下(建议上梯子):
pip install ftfy regex tqdm
pip install git+https://github.com/openai/CLIP.git
问题2:pip3安装慢,换源
给pip3设置清华源
pip3 config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
stable stiffusion扩展插件目录
原来的不太好用,建议用这个下载拓展插件
扩展列表网址:
https://gitee.com/akegarasu/sd-webui-extensions/raw/master/index.md
汉化教程
第一步:Extensions–>install from URL,输入汉化插件地址,点击install
汉化插件:https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN
第二步:settings–>User interface,点刷新按钮,选择zh_CN语言包
第三步:先点击Apply settings提交设置,然后点击Reload UI重启界面即可。
Controlnet安装使用教程
直接上大神视频教程
【AI绘画】完美控制画面!告别抽卡时代 人物动作控制/景深/线稿上色 Controlnet安装使用教程
【【AI绘画】完美控制画面!告别抽卡时代 人物动作控制/景深/线稿上色 Controlnet安装使用教程】
ControlNet 插件:https://jihulab.com/hunter0725/sd-webui-controlnet
启用深色主题
在URL后添加:?__theme=dark
http://127.0.0.1:7860/?__theme=dark
推荐几个网址
下模型的C站:https://civitai.com/
下模型的huggingface:https://huggingface.co/
tag标签超市:https://tags.novelai.dev/
Stable Diffusion 法术解析:https://spell.novelai.dev/
Stable diffusion安装踩坑(win&Mac&iOS)
今天Apple官方支持了这个库,所以特意下载下来试试看,效果还不错,M芯片在深度学习领域第一次给人惊喜了。
https://machinelearning.apple.com/research/stable-diffusion-coreml-apple-silicon
1.win使用
安装
分享一下一个有意思的库的安装经历。
最近才发现有大神将这种生成模型给开源了,之前一直关注DELL这种的大型模型,被ai这种天马行空的想象力给惊艳到。但他们大都只是api接口,现在贫民百姓也可以自己拥有。<笑脸>
下载库
去github网址下载 - > https://github.com/CompVis/stable-diffusion
git clone https://github.com/CompVis/stable-diffusion.git
配置环境和文件
简单的操作,在下载后的文件夹下直接输下面两个
conda env create -f environment.yaml
conda activate ldm
就配置好了。
或者就像我一样傻傻的报错一个安装一个。
我本身的环境是pytorch torchvision
pip install transformers==4.19.2 diffusers invisible-watermark
pip install -e .
pip install OmegaConf einops taming-transformers pytorch-lighnting clip kornia
问题
第一个问题官网是有说明的,但就是这个下载地址藏得很深不好找。
我也是找了一会才找到https://huggingface.co/CompVis/stable-diffusion-v-1-4-original,把这个sd-v1-4.ckpt文件下载下来(随便哪个都行),大概四个G。
下载模型文件放置到这个文件夹下,就是上面官方说明的那个位置,命名成model.ckpt。
运行下面的代码,不出意外会报错。
python scripts/txt2img.py --prompt "a photograph of an astronaut riding a horse" --plms
问题好像是原作者修改了这个库,将你的quantize.py(报错的信息里包含文件所在的绝对路径)文件替换成这个网址的文件
https://github.com/CompVis/taming-transformers/blob/master/taming/modules/vqvae/quantize.py
再运行一次又报错
我只是12g的3060,看来这不是一般人能玩得起的-_-
!!!!!!!!!!!!!!!!
现在有一个简单的办法了,感谢数学系之耻的建议,直接降精度就可以释放显存了。
!!!!!!!!!!!!!!!!
如下修改txt2img.py文件第244行
效果 -->
或者接下去看比较复杂的方法!
不知道需要多大的内存才可以,网上找到方法是用优化的库。网上还有一种办法说注释掉什么安全检查的我试了没有变化。
https://github.com/basujindal/stable-diffusion
下载完后在新的库上也是需要安装一些环境,在新的文件夹下运行下面的安装代码
pip install -e .
优化的库代码放在optimizedSD文件夹下,也保留了之前的源代码,不要搞错了。
重新安装一下这个优化库的环境,将ckpt放到对应的位置。
python optimizedSD/optimized_txt2img.py --prompt "Cyberpunk style image of a Tesla car reflection in rain" --H 512 --W 512 --seed 27 --n_iter 2 --n_samples 5 --ddim_steps 50
运行后报这个错。
查了一下,好像是最近优化的作者也换了一个库
https://github.com/basujindal/stable-diffusion/issues/175
用下面的办法就能解决了。
pip install git+https://github.com/crowsonkb/k-diffusion.git
然后打开编辑optimizedSD/ddpm.py文件,将from samplers…改成上面图片的三个from k_diffusion…
然后贫穷的显卡的电脑也就可以跑了,不说了要努力搬砖买24g的显卡了。
实测效果 -->
2.mac使用
安装
https://github.com/apple/ml-stable-diffusion
git clone https://github.com/apple/ml-stable-diffusion
pip install -e . #来到下载好的文件夹下面运行
登陆hugging face
https://huggingface.co
没有的话直接注册,注册好了以后点击token生成https://huggingface.co/settings/tokens,然后复制token
接下去命令行输入指令,按提示输入
huggingface-cli login
运行指令
在文件夹下运行,顺便创建一个放置ml模型的文件夹,替换下面的-o
python -m python_coreml_stable_diffusion.torch2coreml --convert-unet --convert-text-encoder --convert-vae-decoder --convert-safety-checker -o ./output_ml
官方还给了一个api
--model-version runwayml/stable-diffusion-v1-5 #可以指定其他版本的diffusion模型,默认是 CompVis/stable-diffusion-v1-4
--bundle-resources-for-swift-cli #将ml文件整理成一个swift包,python生成不需要使用
--chunk-unet #ios和ipados部署需要,后面两个之后有机会我想去尝试一下在真机上的部署
--attention-implementation #在Apple芯片上的npu上实现
如果想部署手机和平板可以参考下面这个
python -m python_coreml_stable_diffusion.torch2coreml --convert-unet --convert-text-encoder --convert-vae-decoder --convert-safety-checker -o ./sd2_ml --chunk-unet --model-version stabilityai/stable-diffusion-2-1-base --bundle-resources-for-swift-cli
大约20几分钟吧,会生成这些文件
接着还是在ml-stable-diffusion的文件夹下运行,对了再创建一个放图片的文件夹。
python -m python_coreml_stable_diffusion.pipeline --prompt "a photo of an astronaut riding a horse on mars" -i ./output_ml -o ./output_image --compute-unit ALL --seed 93
swift用下面这个
swift run StableDiffusionSample "A photo of a little girl walking on the beach with the Jenny Turtle" --resource-path ./sd2_ml/Resources/ --seed 93 --output-path ./output_image
--model-version #如果前面修改了这个也要修改
--num-inference-steps #默认推理50次,用这个可以自定义次数
我是M2的MacBook Air,我参考了官方的基准指南--compute-unit
选择了CPU_AND_NE
,大概21秒一个推理还是蛮快的(python),swift 2秒左右一个step,快了很多。
就是从上图中我们可以看到似乎无后缀的M芯片由于GPU数量较少吧我猜--compute-unit
都推荐选CPU_AND_NE
,pro系列芯片选ALL
,以上选CPU_AND_GPU
。
--attention-implementation
直接看GPU核心数,小于等于16个使用SPLLIT_EINSUM
,就是默认的其实啥也不用加。大于16个使用ORIGINAL
。我猜因为M芯片是16核NPU的,GPU核心数比NPU小那肯定用NPU,GPU核心数大大超过NPU,那还是GPU的效率更高吧。
3.iphone&ipad部署
打开Xcode,导入库和上面生成的ML文件
import SwiftUI
import StableDiffusion
import CoreML
struct ContentView: View
@State var prompt: String = "a photo of an astronaut riding a horse on mars"
@State var step = 10
@State var seed = 100
@State var image: CGImage?
@State var progress = 0.0
@State var generating = false
@State var booting = true
@State var pipeline: StableDiffusionPipeline?
private let disableSafety = false
var body: some View
VStack
if booting
Text("Initializing...")
else
if let image
Image(uiImage: UIImage(cgImage: image))
.resizable()
.scaledToFit()
if generating
ProgressView(value: progress)
if !generating
TextField("Prompt", text: $prompt)
Stepper(value: $step, in: 1...100)
Text("steps: \\(step)")
Stepper(value: $seed, in: 0...10000)
Text("Seed: \\(seed)")
Button("Generate")
progress = 0.0
image = nil
generating = true
Task.detached(priority: .high)
var images: [CGImage?]?
do
print("generate")
images = try pipeline?.generateImages(prompt: prompt, stepCount: step,seed: seed, disableSafety: disableSafety, progressHandler: progress in
print("test")
self.progress = Double(progress.step) / Double(step)
if let image = progress.currentImages.first
self.image = image
return true
)
catch let error
print(error.localizedDescription)
print("finish")
if let image = images?.first
self.image = image
generating = false
.padding()
.onAppear
Task.detached(priority: .high)
do
print(os_proc_available_memory())
guard let path = Bundle.main.path(forResource: "CoreMLModels", ofType: nil, inDirectory: nil) else
fatalError("Fatal error: failed to find the CoreML models.")
let resourceURL = URL(fileURLWithPath: path)
let config = MLModelConfiguration()
config.computeUnits = .cpuAndNeuralEngine
pipeline = try StableDiffusionPipeline(resourcesAt: resourceURL, configuration: config,reduceMemory: true)
try pipeline?.loadResources()
print("initialized pipeline")
catch let error
print("error initializing pipeline")
print(error.localizedDescription)
booting = false
struct ContentView_Previews: PreviewProvider
static var previews: some View
ContentView()
在iPad和Mac上建议config.computeUnits = .cpuAndNeuralEngine
。如果要继续在iPhone上部署的话改为这个config.computeUnits = .cpuAndGPU
,然后来到Signing界面,点击Capability,选择Increased Memory Limit。这样就可以在iPhone真机上运行了。这个项目在iPhone真机上需要3GB多一点的内存,我是iPhone 14pro,程序默认可用内存也是3GB多一点刚好杀死。所以通过Increased Memory Limit将可用内存提升至4GB左右才可以运行。另外,即使提升了内存使用神经引擎还是会抱内存错误,只有用GPU才可以,iPad air5没有这种报错两个都可。GPU的运行速度是比神经引擎慢一点的,但是一台手机可以本地运行diffusion还是蛮酷的。
以上是关于Mac M1安装stable diffusion webui教程及问题集锦的主要内容,如果未能解决你的问题,请参考以下文章
Stable diffusion安装踩坑(win&Mac&iOS)