可以AI生成图片的工具怎么用,生成效果如何
-
AI交换小白
默默无闻的知识库
现在想用AI生成图片其实没那么复杂,就像咱们用手机拍照一样,选对工具、简单操作就能出图,市面上常见的AI图片生成工具不少,比如MidJourney、Stable Diffusion和DALL-E 3,这几个算是目前用户量比较大的,它们的原理其实挺像“用文字画画”,你把想要的画面用文字描述出来,AI就会根据这些描述“画”出图片,比如你说“一只穿着西装的柴犬在办公室敲键盘”,AI就能生成对应的画面,是不是很神奇?这些工具有的需要下载软件,有的直接在网页或Discord里用,选对工具是第一步,毕竟不同工具的操作难度和生成风格差别还挺大的。
先说说MidJourney,它算是“网红选手”,生成的图片质感和细节都挺能打,尤其擅长写实和艺术风格,不过它得在Discord里用,也就是说你得先注册Discord账号,再加入MidJourney的服务器,才能开始生成图片,Stable Diffusion呢,是开源免费的“技术流选手”,你可以在自己电脑上部署,也能根据需求调整模型,适合喜欢折腾、想自定义效果的人,DALL-E 3就比较“省心”,直接集成在ChatGPT里,如果你平时用ChatGPT,直接在对话框里输提示词就能生成,操作门槛很低,适合纯新手试试水。

-
只问不答
这家伙很懒,什么都没有留下
拿MidJourney举个例子,具体怎么用呢?第一步肯定是准备工作,你得有个Discord账号,没有的话去官网注册一个,很简单,填邮箱、设密码就行,注册完登录,打开MidJourney的官网,点“Join Beta”,它会自动跳转到Discord,让你加入MidJourney的服务器,点“接受邀请”就进去了,进了服务器,你会看到很多带“newbies”字样的频道,随便选一个进去,这就是新手专用的生成频道。
接下来就是最关键的一步——输入提示词,在频道对话框里输入“/imagine”,会弹出一个提示词输入框,这时候你就把想要的画面描述清楚,比如你想生成“一只戴着草莓发箍的柯基在草地上追蝴蝶,背景是蓝天白云,风格是水彩画”,就把这段话输进去,然后按回车,AI会先给你生成4张缩略图,大概等1分钟左右,看到缩略图后,如果你觉得某张还不错,想放大看高清版,就点图片下面对应的“U1”“U2”“U3”“U4”(U是Upscale的意思,就是放大);如果想在某张的基础上再生成类似的,就点“V1”到“V4”(V是Variation,变种),比如你点了“U2”,AI就会生成这张图的高清版,之后就能右键保存到自己电脑里了。
这里有个小技巧,提示词里可以加参数调整图片比例,比如想生成手机壁纸,就加“--ar 9:16”;想生成电脑桌面,加“--ar 16:9”,参数加在提示词后面,用空格隔开就行。/imagine 星空下的城堡 --ar 16:9”,生成的就是宽屏图片,刚开始可能会觉得提示词难写,没关系,从简单的开始,红色的猫”“蓝色的花”,慢慢加细节,练几次就顺手了。
-
冒险者飞飞
这家伙很懒,什么都没有留下
生成效果好不好,其实主要看两个东西:提示词写得够不够清楚,以及你选的风格和模型对不对路,先说提示词,这玩意儿就像给AI“下订单”,你说得越详细,AI越知道该“做”成什么样,比如你说“画个女孩”,AI可能给你生成各种发型、各种衣服的女孩;但你说“20岁左右的女孩,长卷发,穿白色连衣裙,站在樱花树下,手里拿着一本书,阳光从树叶间洒下来,脸上带微笑”,AI生成的图片就会和你想象的差不离,所以写提示词的时候,尽量把主体(谁/什么)、动作、环境、细节(颜色、材质、配饰)、风格都写上,别偷懒。
风格选择也很重要,不同的工具支持的风格不一样,比如MidJourney的“--style raw”是写实风格,“--niji 5”是二次元动漫风格,“--v 5.2”默认风格细节比较丰富,如果你想要油画效果,可以在提示词里加“oil painting style”;想要像素风,就加“pixel art”,之前我试过用“watercolor painting of a cat with a hat”,生成的图片真的像用水彩画出来的,笔触和晕染效果都挺到位,要是选错了风格,比如想用写实风却选了卡通模型,生成的图片可能会有点“怪”,就像用油画颜料画素描,效果肯定不对。
还有模型版本,新模型通常比旧模型效果好,比如Stable Diffusion的SDXL模型比SD 1.5生成的图片分辨率更高,细节更清晰;MidJourney的V5.2比V4在手部、面部的还原上更自然(之前老版本AI画手经常“六指琴魔”,现在好多了),所以用的时候尽量选最新的模型版本,官网一般会标出来哪个是最新的,跟着用准没错。
-
ai进行曲
AI交换官方小编
不同的AI图片生成工具各有优缺点,咱们选的时候得根据自己的需求来,MidJourney的优点是操作简单,生成速度快,效果稳定,新手跟着教程走5分钟就能上手,缺点是需要付费,免费试用只有25次生成机会,用完就得订阅,基础套餐一个月大概10美元,Stable Diffusion的优点是完全免费开源,你可以自己下载模型、训练专属模型(比如把自己的照片训练成模型,生成自己的动漫形象),缺点是需要在电脑上配置环境,对电脑配置有要求(至少8G显存的显卡),纯小白可能会觉得有点麻烦。
DALL-E 3的优点是方便,直接在ChatGPT里用,不用额外下载软件,而且和ChatGPT联动很好,你可以让ChatGPT帮你优化提示词,比如你说“我想要一张太空主题的图片”,ChatGPT会问你“要写实还是卡通?有没有特定元素比如宇航员、星球?”帮你把提示词补全,缺点是生成的图片风格比较固定,创意性不如MidJourney,而且高清图需要ChatGPT Plus会员(一个月20美元)。
给新手的小建议:刚开始别追求“一步到位”,先从简单的提示词开始,一只小狗”“一片森林”,熟悉工具的操作流程,然后慢慢加细节,一只戴着围巾的萨摩耶在雪地里跑”,看到喜欢的图片,记得保存它的提示词,下次照着改改就能用,这叫“站在巨人的肩膀上画画”,遇到生成失败或者效果差的情况也别慌,AI不是万能的,有时候它也会“翻车”,比如把“猫耳朵”画成“猫胡子”,这时候调整一下提示词里的关键词,多试几次就行,现在网上有很多AI绘画社区,比如CivitAI、ArtStation,里面有很多大佬分享提示词和作品,没事多逛逛,能学到不少技巧。
最后说句大实话,AI生成图片虽然方便,但也不是“点一下就完事”,还是需要花时间琢磨提示词和参数的,不过当你看到自己描述的画面被AI“画”出来的时候,那种成就感还是挺足的~ 对了,生成的图片要是太离谱,别慌,AI也有“摸鱼”的时候,多试几次就好~



欢迎 你 发表评论: