首页 AI问题解答 用来生成图片的AI是什么,怎么用

用来生成图片的AI是什么,怎么用

作者:AI问题解答
发布时间: 浏览量:16 0
  • AI交换小白

    默默无闻的知识库

    用来生成图片的AI,简单说就是一种能听懂你描述、然后把文字变成图画的“数字画家”,你不用会画画,也不用懂复杂的设计软件,只要把脑子里的想法用文字写出来,一只穿着宇航服的柯基在火星上追着飞碟跑”,它就能“画”出一张对应的图片,这种AI不是凭空创作的,它背后藏着一个超级大的“图片图书馆”,里面有几千万甚至上亿张各种风格、各种内容的图片,它通过学习这些图片的规律,才能在你输入描述时“猜”出你想要的画面。

    打个比方,这就像你教一个从没见过猫的小朋友认猫,你给它看了1000张不同品种、不同姿势的猫的照片,下次你说“一只橘色的、胖嘟嘟的、眯着眼睛的猫”,它就能大概画出一只符合描述的猫,生成图片的AI也是这样,通过学习海量图片数据,掌握线条、色彩、构图的规律,再结合你给的文字提示,最终输出一张全新的图片,而且它不光能画写实的,还能画卡通、油画、水彩、赛博朋克各种风格,就像一个会72变的画家,你说要啥风格,它就切换啥“画笔”。

    我之前帮朋友生成过一张毕业纪念册封面,她想要“星空下的校园,教学楼亮着暖黄色的灯,有几个穿着学士服的学生在草坪上弹吉他”,我把这段话输进AI里,选了“水彩风格”,不到30秒就出来一张图,草坪的绿色、灯光的暖黄、星空的深蓝搭配得特别和谐,学生的姿态也很自然,朋友直接拿去用了,省了找设计师的钱和时间,这种通过文字描述生成图片的能力,就是这类AI最核心的魅力,让普通人也能轻松实现“把想象变成现实”。

  • 只问不答

    这家伙很懒,什么都没有留下

    用来生成图片的AI是什么,怎么用

    现在市面上能生成图片的AI工具挺多的,不同的工具就像不同风格的画家,有的擅长画细腻的油画,有的擅长搞前卫的数字艺术,有的则走“接地气”路线,操作简单适合新手,我用过的几个里,MidJourney算是“艺术生”,生成的图片氛围感和艺术性特别强,你让它画“文艺复兴时期的蒙娜丽莎抱着一只机械臂”,它能把古典油画的笔触和未来科技感融合得特别妙,很多设计师拿它做灵感素材。

    Stable Diffusion则像个“理科生”,特别擅长“自定义”,你不光能输文字,还能上传一张自己的照片让它“改头换面”,比如把你拍的风景照变成梵高风格,或者调整图片里的某个细节——比如把晴天改成雨天,把人物的衣服颜色换掉,它的“插件库”也很丰富,就像给画家配了各种特殊画笔,想要什么效果都能折腾出来,不过操作门槛比MidJourney高一点,得稍微研究下参数。

    DALL-E算是“小学生”,来自OpenAI公司,操作简单到离谱,直接在浏览器里打开网页就能用,不用下载安装任何软件,你输入“一只戴着厨师帽的企鹅在厨房里烤披萨,旁边放着一瓶番茄酱”,它生成的图片可能没那么惊艳,但胜在“听话”,描述里的细节基本都能体现出来,特别适合新手第一次体验AI生成图片,还有国内的工具,比如百度的文心一格、阿里的通义万相,对中文提示词的理解更准,生成的图片也更符合咱们的审美习惯,比如你说“中国风的江南水乡,乌篷船,油纸伞,烟雨朦胧”,它们生成的小桥流水、青瓦白墙会更有那味儿。

    这些工具各有各的优势,不同工具适合不同需求,如果你是设计师想找灵感,MidJourney和Stable Diffusion可能更对你胃口;如果只是想给朋友圈配张好玩的图,DALL-E或国内的工具就够用了,而且它们的操作门槛有高有低,像DALL-E基本零门槛,Stable Diffusion则需要花点时间学怎么调参数,就像玩游戏,简单模式和困难模式任你选。

  • 冒险者飞飞

    这家伙很懒,什么都没有留下

    说了这么多,到底怎么用这些AI生成图片呢?我以Stable Diffusion为例,给你讲讲具体步骤,其实跟着走一遍,你也能上手,首先你得在电脑上安装Stable Diffusion,网上有很多免费的开源版本,跟着教程一步步来,不难,安装好打开软件,你会看到一个输入框,这就是“提示词框”,是你和AI“沟通”的地方。

    第一步,写提示词,这是最关键的一步,就像你给画家下订单,描述得越清楚,画出来的东西越符合你心意,不能只写“一只猫”,得说清楚“什么品种的猫(橘猫、布偶猫)、什么姿势(坐着、跳起来)、什么环境(家里的沙发上、草地上)、什么风格(卡通、写实、油画)、什么细节(戴蝴蝶结、爪子上沾着泥土)”,我之前试过写“一只三花流浪猫,蹲在老北京胡同的墙头上,背景有红砖墙和晾着的蓝布衫,水彩风格,暖色调”,生成的图片里,猫的毛色、胡同的烟火气都出来了,特别有感觉,所以记住,提示词是关键,越具体越好,你甚至可以写“眼睛是绿色的,尾巴卷起来,嘴角微微上扬像在笑”这种细节。

    第二步,调整参数,输入提示词后,下面会有一些参数可以调,生成张数”(一次生成1张还是4张)、“图片尺寸”(正方形、长方形)、“采样步数”(数值越高图片越清晰,一般20-50步就够用)、“CFG Scale”(控制AI听不听话,数值越高越严格按照你的提示词来,太低会放飞自我),新手不用调太复杂,默认参数先试试,生成后不满意再微调,比如你觉得图片模糊,就把采样步数调高;觉得AI没按你的描述来,就把CFG Scale从7调到10。

    第三步,点击生成,参数调好后,点“Generate”按钮,AI就开始“画画”了,一般几十秒到几分钟不等,看你电脑配置,生成过程中你能看到图片一点点变清晰,就像画家从打草稿到上色的过程,生成完成后,右边会显示图片,你觉得满意就点“保存”,不满意就修改提示词或参数重新生成,我第一次用的时候,因为提示词写得太简单,生成了一只“四不像”的猫,后来加了“短毛、圆耳朵、粉色鼻子”这些细节,第二次就好多了。

    第四步,后期调整,如果生成的图片大部分满意,就差一点点,猫的尾巴太长了”“背景颜色太暗了”,可以用软件里的“局部重绘”功能,框选要改的地方,再写一句提示词“尾巴缩短一半”,AI就会只改那部分,这一步就像给画修修改改,让它更完美,整个过程其实和咱们平时点外卖有点像,选菜品(提示词)、备注要求(参数)、提交订单(生成)、不满意退换(重新生成),参数调整影响效果,多试几次就能摸到规律。

  • ai进行曲

    AI交换官方小编

    用AI生成图片虽然好玩,但有些事儿你得注意,不然可能踩坑,先说版权问题,这是最容易被忽略的,你用AI生成的图片,到底能不能商用?比如印在T恤上卖、做广告图、当小说封面?不同平台规定不一样,像MidJourney免费版生成的图片只能个人使用,付费版才能商用;Stable Diffusion因为是开源的,版权相对灵活,但如果你的提示词里包含了受版权保护的角色(米老鼠”“哈利波特”),生成的图片可能会侵权,所以用之前最好看看平台的版权说明,别辛辛苦苦做了张图,结果因为版权问题用不了,那就亏大了。

    然后是提示词技巧,除了写得具体,你还可以加一些“风格词”和“质量词”,风格词比如“梵高风格”“宫崎骏动画风”“赛博朋克2077”“低保真像素画”,AI看到这些词就知道往哪个方向画;质量词比如“8K分辨率”“超写实细节”“光线追踪”“大师级作品”,能让图片质量更上一层楼,我朋友之前想生成一张“赛博朋克城市夜景”,一开始只写了“未来城市,高楼,霓虹灯”,出来的图平平无奇,后来加了“赛博朋克风格,雨景,全息投影广告,东京街景,细节丰富,电影级画质”,瞬间就有那味儿了,高楼的玻璃反光、雨滴滴落的效果都特别逼真,所以记住,提示词越具体图片越精准,多积累一些风格词和质量词,能让你的图片“颜值”翻倍。

    避免生成不当内容,现在的AI都有“过滤机制”,如果你输入“暴力”“色情”“恐怖”或者涉及名人、政治人物的描述,AI会拒绝生成,甚至可能封你的账号,之前看到有人想生成“某个明星的丑化图片”,结果账号直接被限制使用了,得不偿失,咱们用AI是为了创造美好,不是搞“科技与狠活”,遵守规则才能一直愉快地玩下去。

    别对AI期望太高,虽然它很强大,但有时候也会“翻车”,比如画出来的手有6个指头、眼睛位置不对称、动物的腿长在奇怪的地方,这都是常有的事,遇到这种情况别着急,多生成几次,或者修改提示词强调“正常的人体结构”“对称的眼睛”,大部分问题都能解决,毕竟AI只是个“学习委员”,不是“艺术大师”,给它一点耐心,它会慢慢“进步”的。

欢迎 发表评论:

请填写验证码

评论列表

暂无评论,快抢沙发吧~