首页 AI工具推荐 AI绘画软件SD ComfyUI,功能详解与实用教程

AI绘画软件SD ComfyUI,功能详解与实用教程

作者:AI工具推荐
发布时间: 浏览量:1 0

不少AI绘画玩家在使用Stable Diffusion时,总会觉得常规WebUI像“傻瓜相机”——虽然上手快,但想调整细节、组合复杂效果时总被界面限制,如果你想让创作流程更“听话”,能自由搭配模型、控制参数,那SD ComfyUI绝对值得一试,这款以“节点式操作”为核心的工具,把绘画过程拆成一个个可拖拽的“功能积木”,让你像拼乐高一样搭建专属创作流程,今天就带你从功能亮点到实操步骤,全方位解锁这个“AI绘画工程师”的秘密武器。

核心功能亮点:用“节点”玩转创作自由

SD ComfyUI最让人眼前一亮的,就是它的节点式操作界面,和传统WebUI的“填写表单”不同,这里的每个功能(比如加载模型、输入提示词、调整采样参数)都变成了独立的“节点”,你可以用鼠标把它们拖到画布上,再用线条连接起来,比如想生成一张“赛博朋克风格的猫咪”,你可以先拖入“Checkpoint模型”节点加载对应的风格模型,再连一个“提示词”节点输入描述,接着接“采样器”节点选择合适的生成算法,最后连到“图像生成”节点——整个流程看得见、摸得着,哪一步出问题直接点节点就能调整。

AI绘画软件SD ComfyUI,功能详解与实用教程

这种设计带来了超强的自定义能力,比如你想给生成的图片先做“人脸修复”再“高清放大”,传统WebUI可能需要多步操作,而在ComfyUI里,只需在生成节点后再连一个“修复”节点和“放大”节点,就能一键完成组合流程,它还支持同时加载多个模型,比如把写实模型和动漫模型的节点并列,通过调节权重让画面既有真实感又有二次元韵味,对于喜欢钻研参数的玩家来说,这种“可视化编程”式的创作体验,简直像给AI绘画装上了“手动挡”。

安装与基础配置:三步搞定启动准备

SD ComfyUI是开源免费的工具,基于Stable Diffusion框架开发,所以安装前需要先准备好基础环境,第一步,确保电脑里装了Python(3.10以上版本)和Git,这两个是运行程序的“地基”,可以在官网直接下载安装,第二步,打开命令行,输入“git clone https://github.com/comfyanonymous/ComfyUI”,把项目文件克隆到本地,就像从网上“搬”回一个工具箱。

第三步是最关键的“装模型”,ComfyUI本身不带模型,需要你自己准备Stable Diffusion的Checkpoint模型(比如SDXL、RealVis等),把它们放到“ComfyUI/models/checkpoints”文件夹里,如果想用人像优化模型,就把LoRA文件放进“lora”文件夹,VAE模型放进“vae”文件夹——模型放对位置,程序才能“认出来”,最后双击“run_nvidia_gpu.bat”(N卡用户)或“run_cpu.bat”(无显卡用户),等待程序启动,浏览器会自动弹出ComfyUI的操作界面,这就大功告成了。

基础使用教程:从“连节点”到生成第一张图

打开ComfyUI后,界面分三部分:左边是“节点面板”(各种功能节点都在这里),中间是“工作区”(拼节点的画布),右边是“属性面板”(调整节点参数),新手可以先从“基础工作流”开始:在左边节点面板找到“Load Checkpoint”(加载模型),拖到工作区,点击节点上的“Choose Model”,选一个你下载好的Checkpoint模型(比如sd_xl_base_1.0.safetensors)。

AI绘画软件SD ComfyUI,功能详解与实用教程

接着拖入“CLIP Text Encode (Prompt)”节点(输入正向提示词)和“CLIP Text Encode (Negative Prompt)”节点(输入反向提示词),在正向提示词框里写“a cute cat, cyberpunk style, neon lights, highly detailed”,反向提示词写“blurry, low quality, extra limbs”,然后找“KSampler”节点(采样器),把模型节点的“output”连到采样器的“model”,两个提示词节点的“output”分别连到采样器的“positive”和“negative”。

最后拖入“VAEDecode”节点(图像解码)和“Save Image”节点(保存图片),把采样器的“output”连到VAEDecode的“latent”,VAEDecode的“image”连到Save Image的“image”,在属性面板里,给采样器设置“steps=20”“cfg=7”“sampler_name=DPM++ 2M Karras”,点击工作区空白处,按“Ctrl+Enter”开始生成——稍等几秒,一张赛博朋克猫咪图就会保存在“ComfyUI/output”文件夹里,是不是很简单?

进阶技巧:让画面更“听话”的参数调整

想让生成效果更精准?试试这些小技巧,比如调整“采样步数”,步数越多画面越细腻,但生成速度越慢,日常用20-30步就够;“CFG值”控制提示词的影响力,值越高画面越贴合提示词,但太高会导致颜色失真,建议5-8之间,如果画面人物脸歪了,加个“FaceRestore”节点,选择“CodeFormer”模型,连在VAEDecode之后,就能自动修复人脸。

喜欢特定风格?在模型节点后加“LoraLoader”节点,加载对应的LoRA模型(DisneyStyle.safetensors”),调整“strength”参数(0.5-1.0之间),就能让画面带上迪士尼动画的感觉,如果电脑配置低,生成慢,可以在“KSampler”节点里把“width”和“height”设小一些(比如512x512),生成后再用“ESRGAN”节点放大,既快又清晰。

AI绘画软件SD ComfyUI,功能详解与实用教程

常见问题解答

SD ComfyUI和Stable Diffusion WebUI有什么区别?

WebUI适合新手,操作像“填表单”,功能固定但简单;ComfyUI适合进阶用户,用“节点”自由组合流程,能实现更复杂的效果,比如同时加载多个模型、自定义生成步骤,但上手需要一点学习成本。

ComfyUI怎么安装新的模型?

把下载的模型文件(如Checkpoint的.safetensors格式、LoRA的.pt格式)放进对应文件夹:Checkpoint放“ComfyUI/models/checkpoints”,LoRA放“lora”,VAE放“vae”,重启程序后就能在节点里选择使用。

节点连错了或者没反应怎么办?

先检查节点连接是否正确(比如模型节点的“output”要连到采样器的“model”),再看属性面板里的参数是否填了(比如模型有没有选),如果还是不行,按“Ctrl+N”新建空白工作流,重新拖节点连接,重启”一下流程就好了。

ComfyUI对电脑配置要求高吗?

和Stable Diffusion差不多,推荐N卡(显存4G以上),生成512x512图片基本流畅;如果是集成显卡或CPU,生成会慢很多,建议先从低分辨率(如256x256)试起,或用“优化节点”减少计算量。

哪里能找到ComfyUI的节点教程或预设?

官网(GitHub)有基础文档,B站、YouTube上有很多博主分享节点组合教程;也可以在“ComfyUI/custom_nodes”文件夹里安装第三方节点扩展(比如ControlNet节点),扩展功能后就能实现更多效果啦。

欢迎 发表评论:

请填写验证码

评论列表

暂无评论,快抢沙发吧~