首页 每日新资讯 Stable Diffusion是AI绘图工具如何快速生成图像

Stable Diffusion是AI绘图工具如何快速生成图像

作者:每日新资讯
发布时间: 浏览量:1 0

Stable Diffusion信息介绍

Stable Diffusion是2022年由Stability AI公司牵头开发的AI图像生成模型,它基于潜在扩散模型(Latent Diffusion Model)技术,能通过文本描述生成高质量图像,和其他AI绘图工具比,它最特别的地方是开源特性——代码和模型参数都公开,任何人都能免费下载、修改和使用,我第一次听说它时,还以为又是那种只能在线用的“黑盒子”工具,没想到居然能直接装在自己电脑上,这点让我特别惊喜。

它的工作原理有点像“数字画笔”,先把文本描述拆解成数学向量,再通过扩散过程逐步“去噪”,从模糊的噪点慢慢变成清晰的图像,就像你在纸上随便涂了一团墨,然后用橡皮擦一点点擦出想要的形状,Stable Diffusion就是用算法帮你完成这个“擦墨”的过程,现在它已经更新到多个版本,比如SDXL 1.0,生成的图像分辨率和细节比早期版本提升了不少,连头发丝和衣服纹理都能看得清清楚楚。

Stable Diffusion核心功能有哪些

Stable Diffusion的核心功能特别丰富,最常用的就是文生图——你输入一段文字描述,一只穿着太空服的柯基在火星上跳华尔兹”,它就能生成对应的图像,我试过输入“赛博朋克风格的猫咪咖啡馆,霓虹灯,下雨天”,出来的图里猫咪戴着发光项圈,窗外雨丝还带着光晕,细节特别到位。

除了文生图,还有图生图功能,你可以上传一张自己的照片,让它变成动漫风格,或者把素描图转换成写实画,上次我朋友画了张简笔画的风景,我用图生图功能把它变成了油画质感,朋友直接设成了手机壁纸。

Stable Diffusion是AI绘图工具如何快速生成图像

它还支持模型微调,如果你想生成特定风格的图像,比如只画宫崎骏风格的动画场景,可以用自己的数据集训练模型,我见过有人用家里宠物的照片微调模型,生成了一堆“宠物拟人化”的漫画,特别有意思,另外还有“Inpaint”(局部重绘)功能,比如图像里有个不想要的物体,用画笔涂掉,输入描述就能替换成别的东西,像给照片“P图”一样方便。

Stable Diffusion的产品定价

Stable Diffusion本身是开源免费的,你从GitHub下载源码,搭配模型文件就能在本地电脑运行,一分钱不用花,不过模型文件需要自己找资源,有些优质模型可能需要在CivitAI等平台下载,大部分也是免费的,少数作者会设置“打赏下载”,但不强制付费。

如果你不想自己折腾安装,也可以用基于Stable Diffusion的云端服务,比如Stability AI官方的Clipdrop,提供在线生成功能,免费用户有次数限制,付费套餐每月9.99美元起,能解锁更高分辨率和更多生成次数,国内也有不少平台集成了Stable Diffusion,比如百度文心一格、阿里通义千问,这些平台通常有免费额度,超过后按次或包月收费,目前官方暂无明确的统一定价,具体费用要看你用的是本地部署还是第三方平台服务。

这些场景用Stable Diffusion超合适

Stable Diffusion在很多场景下都特别好用,我自己最常拿它来帮朋友做设计,上个月学校社团要办“春日读书节”活动,需要一张海报,预算有限请不起设计师,我就用Stable Diffusion试了试:选了“pastel style”(马卡龙风格)模型,输入提示词“spring reading festival poster, books flying in the air, cherry blossoms, soft pink and green colors, children reading under trees”,调整采样步数30,CFG Scale 8,生成了5张图,社团同学选了一张,我用PS加了活动时间和地点,最后打印出来效果特别好,大家都说比网上找的模板好看多了。

自媒体博主也很适合用它做配图,比如美食博主想发一篇“复古风下午茶”的笔记,直接输入“vintage afternoon tea, lace tablecloth, teacups with floral patterns, macarons, warm sunlight”,几分钟就能生成符合主题的封面图,不用再去图库买图了,游戏美术设计也能用它,比如独立游戏开发者可以快速生成角色草图、场景概念图,节省请原画师的成本,甚至老师上课做PPT,需要历史人物的想象图,输入“孔子在杏树下讲学,古风插画风格”,就能生成直观的教学素材。

Stable Diffusion使用注意事项

用Stable Diffusion时,有几个点需要特别注意,首先是显卡显存要求,它对电脑配置不算低,尤其是生成高清图像时,我一开始用的笔记本电脑,显卡是4G显存,生成512x512像素的图还行,想生成1024x1024的就直接卡崩了,后来换了12G显存的台式机,生成大图才流畅起来,所以如果你的电脑显卡显存低于6G,建议先从低分辨率开始试,或者用云端服务。

Stable Diffusion是AI绘图工具如何快速生成图像

提示词撰写技巧,这直接影响生成效果,新手容易只写关键词,一只猫”,结果生成的猫可能姿势奇怪、背景混乱,正确的写法要加细节描述,a white cat with blue eyes, sitting on a red sofa, soft lighting, 8k resolution, realistic photo”,加的细节越多,生成的图像越符合预期,我刚开始写提示词总忘加“8k resolution”,出来的图模糊不清,后来养成习惯每次都加上,画质立刻提升一个档次。

还有版权使用规范,虽然Stable Diffusion生成的图像可以商用,但要注意别生成侵权内容,比如用明星的脸、知名IP角色,可能会有法律风险,如果你用别人训练的模型,最好看一下模型的授权协议,有些模型禁止商用,这点要特别留意。

和同类工具比Stable Diffusion有啥不一样

和现在热门的AI绘图工具比,Stable Diffusion有几个明显优势,先说说MidJourney,它是闭源的,只能通过Discord机器人使用,生成图像依赖官方服务器,你没法改它的模型,想生成特定风格只能靠提示词“硬拗”,而Stable Diffusion是开源可定制的,你可以下载别人训练的模型,比如专门画二次元的“MeinaMix”、画写实人像的“RealVis XL”,甚至能自己训练模型,想画什么风格就调什么模型,自由度高多了。

再看DALL-E 3,它是OpenAI的产品,优点是生成图像和文本描述的匹配度特别高,但它也是闭源的,只能通过API调用或者ChatGPT Plus使用,而且收费不便宜,生成一张高清图要几美元,Stable Diffusion则支持本地部署,你在自己电脑上生成多少张图都不用额外花钱,还不用担心数据隐私问题——毕竟图像生成过程都在自己电脑里,不像云端工具可能会上传你的提示词和生成结果。

还有国内的文心一格、通义千问等工具,虽然操作简单,但模型多样性和自定义程度不如Stable Diffusion,比如你想生成“克苏鲁风格的赛博朋克城市”,Stable Diffusion有专门的克苏鲁模型,调一下参数就能出效果,而其他工具可能只能靠提示词慢慢试,效率低很多。

快速生成图像教程

想快速用Stable Diffusion生成图像,其实步骤很简单,我带你走一遍流程,首先你需要下载安装“Automatic1111 WebUI”,这是目前最流行的Stable Diffusion可视化界面,官网有详细教程,跟着一步步来就行,安装好后,你需要下载模型文件,推荐新手先从“SDXL 1.0”开始,这个版本生成的图像质量高,对提示词的理解也比较准,模型文件可以在CivitAI网站搜索下载,下载后放到“models/Stable-diffusion”文件夹里。

Stable Diffusion是AI绘图工具如何快速生成图像

打开WebUI,在左上角“Stable Diffusion checkpoint”那里选择你下载的模型,然后在“Prompt”框里输入提示词,我习惯把提示词分成“主体+细节+风格+参数”几部分,a little girl riding a giant panda, holding a lollipop, in a bamboo forest, spring, soft light, 8k, ultra detailed, cinematic lighting”,接着在“Negative Prompt”框里输入不想要的内容,ugly, blurry, malformed, extra limbs”,避免生成奇怪的图像。

然后调整参数:“Sampling method”选“DPM++ 2M Karras”(这个采样方法生成速度和质量都不错),“Sampling steps”设20-30(步数越多图像越清晰,但生成越慢),“CFG Scale”设7-9(数值越高图像越贴合提示词,但太高会不自然),“Width”和“Height”设512x512或1024x1024(根据显卡显存调整),最后点击“Generate”按钮,等几十秒,图像就生成啦!我第一次生成的时候,看到屏幕上从模糊的噪点慢慢变成清晰的画面,感觉像在看“数字魔术”,特别神奇。

常见问题解答

Stable Diffusion是免费的吗?

Stable Diffusion本身是开源免费的哦!你可以从GitHub上下载它的源码和模型,在自己电脑上安装使用,完全不用花钱,不过要是你不想自己折腾,用一些第三方平台提供的云端服务,比如Stability AI的Clipdrop,可能就要付费啦,免费用户一般有生成次数限制,超过后就得充钱解锁更多功能,具体看你怎么用啦~

Stable Diffusion怎么安装到电脑上?

安装其实不难,跟着步骤来就行!首先去GitHub搜“Automatic1111/stable-diffusion-webui”,下载源码到电脑,然后安装Python(记得勾选“Add Python to PATH”)和Git,接着双击“webui-user.bat”文件,它会自动下载需要的依赖,等依赖下完,去CivitAI下载模型文件,放到“models/Stable-diffusion”文件夹里,再双击“webui-user.bat”就能启动界面啦!对了,电脑显卡最好6G以上显存,不然生成大图会很卡~

Stable Diffusion生成图像需要什么配置?

生成图像对电脑配置还是有要求的,尤其是显卡!推荐用N卡,显存至少6G,12G以上更好,不然生成1024x1024以上的大图会特别慢,甚至直接崩掉,CPU不用太高端,i5或Ryzen 5以上就行,内存建议16G以上,系统用Windows 10/11或者Linux都可以,如果电脑配置不够,也可以用云端服务,不过那就得花钱啦,看你怎么选~

Stable Diffusion和MidJourney哪个更适合新手?

新手的话可能MidJourney上手更快,它直接在Discord里发命令就行,不用装软件,生成图像也很稳定,但Stable Diffusion虽然要自己配置,不过好玩多了!你可以换各种模型,调参数,生成自己想要的风格,比如二次元、写实、油画啥的,自由度特别高,要是你想随便玩玩,MidJourney方便;想深入学AI绘图,Stable Diffusion更值得试,学会了超有成就感!

Stable Diffusion能生成动漫风格的图像吗?

当然能!而且超简单!你去CivitAI搜“anime model”,能找到好多专门生成动漫风格的模型,Anything V3”“Counterfeit-V2.5”“MeinaMix”,下载后加载模型,输入提示词时加上“anime style”“manga”“cel shading”这些词,生成的图就会有浓浓的动漫感,我上次用“Counterfeit”模型生成了一张“穿着JK制服的猫耳少女”,眼睛亮晶晶的,头发还有渐变,朋友还以为是我从动漫里截的图呢!

欢迎 发表评论:

请填写验证码

评论列表

暂无评论,快抢沙发吧~