怎么ai生成图像?新手入门的实操指南
-
AI交换小白
刚接触AI图像生成的萌新,每天都在“这也能画?”和“我咋画不出来”之间反复横跳
咱先唠唠基础,AI生成图像说白了就是让机器帮你画画,你不用会调色、不用懂透视,甚至不用拿画笔,只要告诉它你想要啥,它就会像个努力猜你心思的小画家,在数据库里翻找各种图片的“基因”,然后拼拼凑凑、涂涂改改,最后给你一张全新的图,打个比方,这就像你去奶茶店点单,你说“要一杯三分糖、少冰、加珍珠的草莓奶绿”,店员(AI)就根据你的要求(提示词),用各种原料(训练数据)给你做出来——虽然偶尔会错把珍珠加成椰果,但大体方向不会偏。
现在市面上的AI图像工具多到让人眼花缭乱,咱挑几个新手友好的说说。Stable Diffusion(SD)算是老大哥了,免费开源,电脑配置够就能本地跑,适合喜欢自己捣鼓参数的“折腾党”;MidJourney则是颜值担当,出图效果经常让人“哇塞”,不过得在Discord里用,刚开始可能会觉得像进了聊天室,有点懵;还有DALL-E,背靠OpenAI爸爸,网页操作贼简单,输入文字就能生成,纯新手闭眼入都没问题,哦对了,国内也有不少好用的,比如百度的文心一格、阿里的通义万相,不用科学上网,对咱来说更方便。
很多萌新刚上手会问:“为啥我输了文字,AI画出来的东西像被猫抓过?”别急,这不是AI笨,是你没把“菜单”写明白,就像你跟奶茶店说“要个甜的”,店员可能给你全糖奶茶,也可能给你块糖,结果肯定不一样,AI生成图像也是一个道理,你的提示词越具体,AI越能get到你的点,比如你想画“一只猫”,不如说“一只橘色的胖猫,戴着蓝色的针织围巾,趴在铺着格子布的书桌上,背景有阳光透过窗户,油画风格”,这样AI画出来的,大概率不会变成“一只长着猫脸的狗”。

-
只问不答
专注实操不整虚的,主打一个“手把手教你把图生出来”
咱直接上干货,以Stable Diffusion本地部署为例,带你走一遍完整流程,第一步,准备工具,你得有台配置说得过去的电脑,显卡最好是N卡(A卡也行但麻烦点),内存8G以上,硬盘留个100G空间放模型,然后去官网下载SD的安装包,跟着教程一步步装,别怕,现在的安装包都带傻瓜式引导,跟装QQ差不多简单,要是觉得本地部署麻烦,直接用在线版,比如Civitai上有很多现成的在线SD接口,注册个账号就能用。
第二步,选模型,模型就像AI的“画风模板”,不同模型擅长画的东西不一样,想画二次元?选Anything V3、MeinaMix;想画写实人像?ChilloutMix、RealVisXL闭眼入;甚至还有专门画国风的、赛博朋克的、油画的模型,在Civitai或者Hugging Face上一搜一大堆,下载后放进SD的models文件夹就行,新手建议先从通用模型开始,比如v1-5-pruned-emaonly.safetensors,虽然不算惊艳,但不容易出错。
第三步,写提示词(Prompt),这可是核心中的核心,咱分三部分来写,主体:你要画的是啥,一个女孩”“一只机械狗”;风格:想让它是什么风格,“水彩”“3D渲染”“卡通”;细节:颜色、动作、背景、光影,越细越好,“蓝色连衣裙”“站在花海中”“夕阳逆光”,举个例子,完整提示词可以是“a beautiful girl, long black hair, wearing white dress, standing in a field of sunflowers, smiling, soft light, oil painting style, high detail, 8k resolution”,注意,提示词前面可以加权重符号,(white dress:1.2)”,表示裙子的白色要更突出,数值越高权重越大,但别超过2,不然容易糊。
第四步,生成和调整,输入提示词后,设置参数:采样方法选Euler a或者DPM++ 2M Karras,新手随便选,差别不大;采样步数20-30步就行,步数太多费时间,效果提升也有限;CFG Scale(引导力度)设7-10,数值越高AI越听提示词的,但太高会生硬;图片尺寸先从小的来,512x512或者768x512,生成快,不满意再放大,点“生成”按钮后,就等着AI“作画”吧,第一次看到图片慢慢出来的时候,那种期待感跟拆盲盒似的,还挺有意思。
生成完要是觉得不满意咋办?别删,用图生图功能,把刚生成的图拖进去,在提示词里改改细节,头发颜色改成棕色”,或者调整重绘幅度(0.3-0.7之间),让AI在原图基础上修改,比重新生成效率高多了,要是人物五官歪了,用修复画笔局部改;背景太乱,用涂鸦功能擦掉重画,AI生成图像不是一蹴而就的,多试几次,你和AI之间也需要“磨合”。
-
冒险者飞飞
喜欢挖掘各种小技巧,让你的AI画图水平“偷偷内卷”
咱来聊聊提示词的进阶玩法,学会这些,你生成的图能甩别人一条街,第一个技巧,加艺术家名字,比如你想画油画,加“by Van Gogh”(梵高风格),AI就会模仿梵高的笔触和色彩;想画二次元,加“by Hayao Miyazaki”(宫崎骏风格),立马有吉卜力动画那味儿了,不过别瞎加,得确认这个艺术家的风格和你想要的匹配,不然AI可能会“精神分裂”,画出来四不像。
第二个技巧,用负面提示词“排雷”,正面提示词告诉AI要画啥,负面提示词就告诉它别画啥,新手经常忽略这个,结果生成的图里出现“多余的手指”“扭曲的脸”“模糊的背景”,把这些常见问题写进负面提示词,low quality, blurry, extra fingers, missing fingers, bad anatomy, malformed limbs, text, watermark”,AI就会自动避开这些坑,出图质量瞬间提升一个level,负面提示词不用太长,挑几个关键的就行,太多了反而限制AI发挥。

第三个技巧,参考图“抄作业”,要是你有张喜欢的图片,但想换个风格,直接用ControlNet,把参考图拖进去,选择“骨骼检测”“边缘检测”或者“深度图”,AI就会照着参考图的构图、姿势来生成新图,相当于“描着画”,但内容是全新的,比如你看到一张好看的风景照,想用二次元风格重绘,ControlNet一拉,分分钟搞定,比你自己想构图省事多了。
还有个冷门但超实用的技巧,批量生成+筛选,一次生成4张或8张图,然后挑一张最接近你想要的,用它做图生图的基础,继续修改提示词,就像玩游戏打怪升级,每一次迭代都比上一次进步一点,最后总能得到满意的结果,我之前想画“赛博朋克风格的猫咪黑客”,前5次生成的不是猫长了机械臂就是背景太乱,第6次用图生图调整了姿势和颜色,终于出来一张能当头像的,那种成就感,谁懂啊!
对了,现在流行“AI绘画+PS”组合拳,AI生成的图可能细节不够完美,比如衣服褶皱不自然、背景有瑕疵,用PS稍微修修,立马“精装修”,比如把AI生成的人物抠出来,换个自己拍的背景;或者用液化工具调整一下脸型,让人物更符合审美,别觉得麻烦,现在PS也出了AI功能,修图效率高得很,两者结合,简直是“王炸”,最近不是流行“用AI生成自己的漫画形象”嘛,你先用手机拍张照,AI生成漫画风,再用PS微调一下表情,发朋友圈绝对被问爆“这是哪个APP做的?”,咱就说“秘密武器,不外传”,主打一个神秘感。
-
ai进行曲
AI图像生成的“老司机”,聊聊那些容易踩的坑和行业冷知识
先说说版权问题,这可是重中之重,别光顾着画图爽,一不小心就侵权了,现在大部分AI工具的条款都规定,免费生成的图只能个人使用,商用得买版权,比如MidJourney的商业授权就得单独付费,还有,别用AI生成明星、名人的肖像,除非你得到本人同意,不然可能会吃官司,之前就有博主用AI生成某明星的“虚拟代言图”,结果被粉丝举报,账号都差点没了,这波属于“纯纯大冤种”。
再聊聊模型训练的“玄学”,很多人觉得模型越新越好、越大越好,其实不一定,有些老模型虽然参数小,但在特定风格上比新模型还能打,比如画二次元的“AbyssOrangeMix”,虽然是几年前的模型,但至今还有很多人用,选模型就像选衣服,不一定贵的、新的就适合你,得试,还有模型的“融合”技巧,把两个不同风格的模型按比例融合(比如70%的写实模型+30%的油画模型),可能会生成意想不到的效果,这就像做菜时加两种调料,味道更独特。
很多新手会陷入“参数焦虑”,天天研究“采样步数设25还是30”“CFG Scale调7还是8”,其实对新手来说,这些参数默认值就够用了,与其纠结这些,不如多花时间打磨提示词,提示词到位了,参数随便调调都能出好图,就像你做菜,食材新鲜、调料放对,就算火候稍微差一点,味道也不会太难吃;要是食材不行、调料乱加,火候再好也白搭,AI生成图像也是一个道理,提示词是“食材”,参数是“火候”,先把食材备好再说。
最后给大家泼盆冷水,AI生成图像虽然方便,但别指望它能完全替代人工创作,现在很多AI生成的图乍一看很惊艳,但细看会发现逻辑不通,鸟长着鱼的翅膀”“树叶长在石头上”,这些都是AI“瞎编”的,真正的创作需要情感和逻辑,AI只是个工具,就像画笔一样,能帮你提高效率,但画什么、怎么画,最终还是得靠你自己的想法,所以别想着“躺平”让AI帮你画画,多观察生活,多积累灵感,才能让AI成为你的“神助攻”,而不是“替代品”。
最近网上不是流行“AI生成的图片被当成摄影作品获奖”的事儿嘛,虽然引发了不少争议,但也说明AI生成图像的水平越来越高了,不过咱普通人玩AI绘画,图的就是个开心,把自己的想法变成图片,那种快乐是花钱买不来的,就像小时候玩积木,不管搭得好不好看,过程都很有趣,别害怕AI太难,大胆去试,就算生成的图很“抽象”,也是你和AI共同的“作品”,对吧?



欢迎 你 发表评论: