上一篇文章:将Stable Diffusion自定义model部署到服务器上并支持自动扩容
上一篇文章主要介绍了如何编写我们自己的运行模型的代码,不依赖stable-diffusion-webui提供的整个webui的加载,从而能够运行模型,然后将任何自定义模型以及Lora部署到支持自动扩缩容的GPU服务器上,从而能够支撑多人并发请求。
本文依然准备介绍如何将任何自定义的Stable Diffusion模型或者Lora模型部署到服务器上,从而可以定制自己的UI界面并且不受同时只能接受一个请求的限制。同时,提供了一种长期对外提供服务的比较经济的方案
上一篇文章中使用的平台,虽然能够满足自动扩缩容的需求,但是至少会保留一台GPU实例,每小时0.6美刀,还是很烧钱的。而这篇文章中,我发现了另一个更加经济的平台,在没有请求时可以缩容到0台实例从而避免费用,在有请求时才会计费,并且只会对真正计算的时间收费,我试了一下一次生成基本只需要0.02美刀,对于项目的启动来说已经足够经济了。
详情访问:https://mp.weixin.qq.com/s/2R-QuuQKeIccPpoc1i9cUQ
wallhaven-yx8vjl.png