首页 AI工具推荐 AI绘画工具Stable Diffusion保姆级教程

AI绘画工具Stable Diffusion保姆级教程

作者:AI工具推荐
发布时间: 浏览量:1 0

想上手AI绘画却被复杂的工具和专业术语劝退?Stable Diffusion作为免费开源的AI绘画神器,其实没那么难!这篇教程从安装到出图手把手带你走,哪怕是小白也能轻松解锁“画啥有啥”的快乐,跟着步骤操作,你也能让AI变成你的专属画手,生成独一无二的创意图像。

安装准备:从环境搭建到软件获取

开始前得先让电脑“跑”得动Stable Diffusion,它对硬件有一定要求,显卡需至少4GB显存(推荐N卡,兼容性更好),内存8GB以上,系统建议Windows 10/11或 macOS,如果电脑配置不够,也可以试试在线版(如Stable Diffusion WebUI的云服务),不过本地安装能解锁更多功能。

工具价格方面,Stable Diffusion本体完全免费!但需要自己准备一些“配料”:Python(3.10.x版本,官网直接下载)、Git(用来拉取代码),还有模型文件(从Civitai等平台下载,注意选择适合新手的基础模型,比如SD 1.5或SDXL)。

工具使用教程指南:
安装Python和Git,记得勾选“Add to PATH”(方便后续命令行操作);
打开命令提示符,输入“git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui”,等待代码下载完成;
把下载好的模型文件(后缀为.safetensors或.ckpt)放进“models/Stable-diffusion”文件夹;
双击“webui-user.bat”启动程序,首次运行会自动下载依赖,耐心等几分钟,直到出现“Running on local URL: http://127.0.0.1:7860”,用浏览器打开这个地址就能进入操作界面啦。

AI绘画工具Stable Diffusion保姆级教程

基础设置:界面功能与初始配置

打开Stable Diffusion WebUI,界面像个简洁的工作台,主要分几大块:左侧是“txt2img”(文字生图)和“img2img”(图片生图)两个核心功能区,中间是参数设置,右侧是生成结果展示,新手先从“txt2img”入手,这是最常用的功能。

功能介绍里,有几个按钮必须认识:“Generate”是生成图像,“Interrupt”能中途停止生成,“Save”保存图片,“Settings”可以调整界面语言(支持中文,在“User interface”里找到“Localization”选“zh_CN”,重启后生效),参数区域的“Model”下拉框能切换不同模型,刚安装时默认是基础模型,后续可以加载各种风格模型(比如二次元、写实风)。

工具使用教程指南:
先在“Settings”里把语言改成中文,界面瞬间亲切不少;
点击“Model”下拉框,确认当前选中的是你放进文件夹的基础模型;
随便输入一句简单提示词(一只可爱的柯基犬”),点击“Generate”,等待十几秒,第一张AI画就诞生啦!别担心初期效果一般,后面会教你优化。

提示词撰写:让AI懂你的创意

提示词是AI绘画的“指挥棒”,写得好不好直接决定生成效果。正向提示词越具体,生成效果越精准,a cute corgi wearing a red hat, sitting on a grass, sunny day, 8k, detailed eyes”(一只戴红帽子的可爱柯基,坐在草地上,晴天,8k画质,眼睛细节丰富),关键词之间用英文逗号分隔,重要的描述可以加括号“()”提升权重((red hat:1.2)”表示帽子红色更突出)。

除了正向提示词,负向提示词也很关键,用来告诉AI“不要画什么”,常见的负向提示词有“low quality, blurry, ugly, malformed hands”(低质量、模糊、丑陋、手部畸形),能有效避免生成奇怪的图像,新手可以先抄网上的提示词模板,慢慢修改成自己想要的风格。

工具使用教程指南:
在“txt2img”的“提示词”框里输入正向描述,“负面提示词”框里输入避坑关键词;
举个例子:正向写“女孩,长发,蓝色连衣裙,站在樱花树下,微笑,宫崎骏风格”,负向写“模糊,变形,低分辨率”;
点击生成,对比不加负向提示词的效果,你会发现画面干净了很多。

参数调整:控制图像质量与风格

参数就像“微调旋钮”,能让图像从“能看”变成“好看”,最常用的几个参数要记牢:采样步数(Sampling Steps)建议20-30步,步数太少画面粗糙,太多会浪费时间;CFG Scale(提示词相关性)5-12比较合适,数值越高AI越严格按提示词画,但太高会让画面生硬;分辨率(Width/Height)新手先从512x512或768x512开始,分辨率太高容易崩图(可以先生成小图,再用“img2img”放大)。

采样方法(Sampling Method)推荐“Euler a”或“DPM++ 2M Karras”,前者生成速度快,后者细节更丰富,如果想生成多张图对比,把“Batch count”(批量数量)设为2-4,一次生成多张选最优。

工具使用教程指南:
保持提示词不变,先试采样步数20,CFG Scale 7,分辨率512x512,生成一张图;
再把采样步数调到30,CFG Scale 10,对比两次结果:步数多的画面更细腻,CFG高的更贴合提示词;
如果觉得人物脸歪,试试降低CFG Scale到5-6,或在提示词里加“perfect face”。

进阶技巧:模型切换与插件使用

玩熟基础功能后,就可以解锁“换风格”和“精准控制”了,模型是Stable Diffusion的灵魂,不同模型擅长不同风格:“RealVisXL”画写实人像,“Anything V5”画二次元,“DreamShaper”适合风景,切换模型很简单,在“Model”下拉框直接选,加载新模型时会有点慢,耐心等几秒。

插件能让功能更强大,新手必装的是“ControlNet”,它能让AI按你的线稿、姿势或深度图生成图像,比如想让AI画一个特定动作的人物,先在草稿纸上画个火柴人线稿,用“ControlNet”加载线稿,AI就会按这个姿势生成细节,安装插件需要在“Extensions”里搜索“ControlNet”,点“Install”,重启后在界面就能看到“ControlNet”选项卡。

工具使用教程指南:
去Civitai下载一个二次元模型(Anything V5”),放进“models/Stable-diffusion”文件夹,在“Model”下拉框选中它;
提示词写“动漫女孩,双马尾,校服,校园背景”,生成试试,风格立刻从写实变成二次元;
安装ControlNet后,上传一张手部线稿图片,勾选“Enable”,选择“Openpose”模型,生成时AI就会严格按线稿的手部姿势画。

常见问题解答

Stable Diffusion需要什么电脑配置?

最低配置:显卡4GB显存(N卡优先),内存8GB,系统Windows 10/11或macOS,推荐配置:显卡8GB以上显存(如RTX 3060及以上),内存16GB,能更流畅生成高分辨率图像。

提示词怎么写才能让AI画得更准?

按“主体+细节+风格+画质”的结构写,(主体)一只橘猫,(细节)趴在键盘上,爪子按空格键,(风格)水彩画风格,(画质)8k,高清,细腻纹理”,重要关键词用括号“()”提升权重,负向提示词加上“模糊、低质量”等避免踩坑。

生成的图像总是模糊怎么办?

先检查采样步数是否≥20,CFG Scale是否在7-10之间;提示词里加“高清、8k、细节丰富”等关键词;如果还是模糊,试试用“img2img”功能,把模糊图作为输入,设置“重绘幅度”0.5-0.7,重新生成。

怎么安装新的模型?

从Civitai、Hugging Face等平台下载模型文件(后缀.safetensors或.ckpt),放进Stable Diffusion安装目录下的“models/Stable-diffusion”文件夹,重启WebUI后,在“Model”下拉框就能看到新模型。

ControlNet插件怎么用?

先在“Extensions”→“Available”搜索“ControlNet”安装,重启后在界面勾选“Enable”;上传参考图(线稿、姿势图等),选择对应模型(如“Openpose”控姿势、“Canny”控边缘),调整“Control Weight”(控制强度,0.7-1.0为宜),再输入提示词生成即可。

欢迎 发表评论:

请填写验证码

评论列表

暂无评论,快抢沙发吧~