Matting by Generation是生成式抠图技术,如何高效实现精准抠图
Matting by Generation信息介绍
Matting by Generation直译过来就是“生成式抠图”,简单说就是让AI像变魔术一样,自动把图像里的主体从背景中“拎”出来,还能保留发丝、玻璃这类半透明细节,和咱们手动用套索工具一点点抠图不一样,它靠的是生成式AI模型,先“看懂”图像里哪部分是主体、哪部分是背景,再直接生成一张只含主体的透明图,这种技术近几年才火起来,算是抠图界的“后起之秀”,尤其在处理复杂边缘时,比老方法省心太多。
我第一次听说这技术是在设计群里,有个做电商美工的朋友吐槽抠图累到腱鞘炎,另一个人甩了个论文链接,标题里就有Matting by Generation,点进去看才发现,这技术居然能让AI自己“脑补”出主体的轮廓,连婚纱的薄纱、猫主子的绒毛都能抠得根根分明,当时就觉得这简直是设计狗的救星。
Matting by Generation核心功能有哪些
自动识别主体轮廓是它最牛的本事,传统抠图得手动画选区或者用绿幕,它不用,丢张图进去,AI会像人类一样“扫一眼”就知道要抠的是人像还是商品,连你没特意标注的小细节都不会漏,上次我传了张宠物狗在草地上打滚的图,狗爪子上沾的草屑都被精准识别成“非主体”,没跟着狗一起被抠出来。

半透明区域处理堪称一绝,玻璃、婚纱、火焰这些带透明度的物体,以前抠图时要么变成完全不透明的“塑料感”,要么边缘糊成一团,Matting by Generation会计算每个像素的透明度值,比如玻璃杯边缘,AI会让靠近杯壁的像素保留80%透明度,远离的逐渐降到0,看起来就像真实世界里光线穿透玻璃的效果。
端到端生成无需中间步骤特别省心,有些深度学习抠图工具得先手动画个“trimap”(就是大致标出前景、背景和不确定区域),麻烦得很,生成式抠图直接跳过这一步,从原图到透明图一步到位,对新手太友好了,我那电脑小白表妹,第一次用就成功把她和爱豆的合影抠出来做了手机壁纸。
给图像做减法的魔法师,精准剔除多余背景只留精华,这句话用来形容它的核心功能再贴切不过,不用你动手,AI就把图像里的“杂质”清干净,只留下你想要的部分。
Matting by Generation的产品定价
目前Matting by Generation更多是学术研究领域的技术概念,市面上直接叫这个名字的商业产品还比较少,如果是基于这项技术的开源模型,比如GitHub上的某些项目,基本都是免费的,你下载代码自己部署就能用,不过要是想用现成的在线工具或API,就得看具体平台了。
有些图片处理软件会集成类似技术,比如某款在线抠图网站,基础功能免费但分辨率低,高清抠图按张收费,一张大概1-5块钱,专业设计软件里的插件可能更贵,月订阅费几十到上百不等,目前官方暂无明确的定价,毕竟这技术还在发展阶段,不同厂商的收费模式也乱七八糟,建议用之前先看清楚免费额度和付费套餐。
这些场景用Matting by Generation超合适
电商卖家修产品图简直是为它量身定做的,拍服装时背景乱没关系,用它抠出来换个纯色背景,衣服的褶皱、蕾丝边都清清楚楚,顾客一看就有购买欲,我邻居开淘宝店卖围巾,以前用手机拍的图背景是家里的沙发,抠完总像贴上去的假东西,用了生成式抠图后,围巾的流苏都带着飘逸感,销量都涨了不少。
视频剪辑里的人物抠像也离不开它,做短视频时想给主播换虚拟背景,传统绿幕抠图得买绿幕布还怕光线不均,生成式抠图直接用普通背景拍摄,AI自动把人抠出来,连发丝飘动的细节都不丢,上次帮朋友剪vlog,她在公园拍的镜头,用这技术换成星空背景,看起来跟专业团队拍的似的。
设计师做海报合成时用它能省不少事,比如要把模特和风景合成,模特的头发丝要是没抠好,就会像戴了个假头套,生成式抠图能让模特和背景“无缝衔接”,我见过最绝的案例是把一个穿纱裙的模特抠出来放在雪山背景里,纱裙的透光感和雪山的光线完美融合,不仔细看根本看不出是合成的。
AR/VR场景里它也是刚需,玩AR游戏时,手机镜头要把你从现实环境中抠出来放到游戏场景,要是边缘模糊,你就会像个“幽灵”在游戏里飘,生成式抠图能让你的轮廓和游戏场景精准对齐,挥动手臂时连袖口的褶皱都和虚拟环境互动得很自然。

Matting by Generation使用注意事项
输入图像的质量直接影响抠图效果,照片别太模糊,光线别太暗,不然AI可能“看走眼”,上次我试了张晚上拍的猫主子照片,因为光线太暗,猫的黑毛和深色背景糊在一起,AI把猫耳朵当成背景给“剃”掉了,气得我赶紧重拍了张光线好的才成功。
半透明物体别穿“同款色”衣服,比如你想抠一个戴玻璃眼镜的人,要是背景也是浅蓝色,玻璃镜片可能会和背景“融为一体”,建议拍的时候让主体和背景颜色差大一点,比如穿红色衣服站在绿色背景前,AI处理起来会轻松很多。
别指望一次就能完美,虽然生成式抠图很智能,但偶尔也会有小瑕疵,比如发丝边缘多抠了一点,或者透明物体的透明度没算准,这时候得手动微调一下,用画笔工具擦一擦多余的部分,或者调整透明度滑块,耐心点就能得到满意的结果。
电脑配置别太差,要是用本地部署的开源模型,显卡最好好一点,不然处理一张图可能要等十几分钟,我之前用老笔记本跑模型,一张图等了快半小时,风扇转得跟吹风机似的,后来换了带独显的电脑,5分钟就搞定了。
和同类工具比Matting by Generation有啥不一样
跟Photoshop的快速选择工具比,它简直是降维打击,快速选择工具得手动拖鼠标选区域,边缘还得靠“选择并遮住”一点点调,抠一张带头发的人像没半小时搞不定,Matting by Generation不用手动选,丢图进去自动出结果,边缘精度还更高,我用PS抠过一次猫的胡须,差点把眼睛都框进去,生成式抠图5分钟就搞定,胡须根根分明。
对比Deep Image Matting这种非生成式深度学习抠图,它更省心,Deep Image Matting需要你先画个trimap,就是用不同颜色标出前景、背景和不确定区域,对新手来说跟天书似的,生成式抠图跳过这一步,端到端直接出结果,我那刚学设计的表弟,用Deep Image Matting画trimap画到崩溃,换生成式抠图后,第一次用就成功抠出了他的球鞋。
和在线抠图工具Remove.bg比,它处理复杂场景更强,Remove.bg对付简单背景还行,要是背景里有很多相似颜色的物体,比如草地上的花,就容易把花瓣和草一起抠掉,Matting by Generation能更好地区分相似颜色的主体和背景,上次我用Remove.bg抠一张玫瑰花图,把几片花瓣当成背景删了,换生成式抠图后,连花蕊上的花粉都保留得清清楚楚。
高效实现精准抠图教程
准备待抠图像时要注意质量,选一张主体清晰、光线均匀的图,别用那种糊成马赛克的照片,我一般会用手机在白天自然光下拍,主体占画面三分之二左右,这样AI更容易识别,比如要抠一只玩偶,就把它放在纯色桌子上,别堆在一堆杂物里。
选择合适的预训练模型很重要,不同模型擅长的场景不一样,有人像专用模型,有商品专用模型,还有通用模型,要是抠人像,就选带“portrait”字样的模型,抠商品就选“product”相关的,我上次抠宠物,试了通用模型效果一般,换了专门的“animal”模型后,宠物的毛发细节立刻清晰了不少。

设置生成参数时可以多试几次,主要调边缘平滑度和透明度阈值,边缘平滑度调高点,轮廓会更自然;透明度阈值根据主体材质来,半透明物体调低一点,不透明物体调高一点,比如抠玻璃杯,透明度阈值设30%左右,能保留玻璃的通透感;抠金属杯子,设70%以上,边缘会更锐利。
运行生成式抠图后耐心等结果,模型处理需要时间,电脑配置好的话几分钟,配置差的可能要十几分钟,别着急打断,让模型跑完整个流程,跑完后看看预览图,要是边缘有瑕疵,就返回上一步调整参数重新跑,多试两次总能得到满意的结果。
微调结果时重点看细节区域,用图像编辑软件打开生成的透明图,放大边缘部分,比如发丝、蕾丝、玻璃边缘,用画笔工具手动修正,我一般用橡皮擦工具把多抠的部分擦掉,用画笔工具把漏抠的部分补上,花个一两分钟微调,结果会更完美。
导出透明背景图像时选对格式,保存成PNG格式,这样透明通道才会被保留,方便后续换背景,别存成JPG,不然透明部分会变成白色,等于白抠了,我之前就犯过这错,存成JPG后拿去做海报,主体周围一圈白边,尴尬得不行,重新导出PNG才解决。
常见问题解答
Matting by Generation需要专业知识才能用吗
不用啊,现在很多基于这个技术的工具都做得很简单,跟用美图秀秀似的,上传图片点一下按钮就完事,我闺蜜是个电脑小白,第一次用在线生成式抠图工具,跟着提示点了两下,就把她和爱豆的合影抠出来做了壁纸,她自己都惊到了,说比她想象中简单一百倍。
用Matting by Generation处理一张图像要多久
看你用啥工具和电脑配置啦,在线工具一般快,5-10秒就能出结果,毕竟服务器配置高,要是自己在电脑上跑开源模型,配置好的话1-3分钟,配置差的可能要十几分钟,我用家里的旧笔记本跑过一次,等了快20分钟,结果还不错,就是风扇转得跟要起飞似的,后来换了新电脑,3分钟就搞定了。
Matting by Generation支持视频序列抠图吗
支持的,不过比单张图像麻烦点,现在有些专门的视频抠图软件集成了这项技术,把视频导进去,选好要抠的主体,AI会逐帧处理,我帮朋友剪过一个跳舞视频,用生成式抠图换背景,人物动作很流畅,边缘也没出现卡顿,就是处理1分钟的视频花了快半小时,可能是因为每帧都要计算吧,不过效果确实比传统方法好。
Matting by Generation的开源模型哪里能下载
GitHub上一搜一大把,直接搜“Matting by Generation”或者相关关键词,generative image matting”,就能找到很多项目,不过要注意看模型的使用说明,有些需要安装特定的框架,比如PyTorch、TensorFlow,还得有显卡支持,我上次下了个模型,没看说明就装,结果电脑没显卡跑不起来,后来换了个CPU也能跑的轻量级模型才成功。
用Matting by Generation对电脑配置有要求吗
肯定有啊,尤其是自己部署模型的时候,最好有个独立显卡,显存4G以上比较流畅,内存8G以上,硬盘空间留个几十G放模型和数据,要是没显卡,用CPU也行,就是慢很多,处理一张图可能要十几分钟,在线工具的话对电脑配置没要求,只要能上网就行,手机都能操作,我试过用手机浏览器打开在线抠图网站,传图后等几秒就出结果,超方便。


欢迎 你 发表评论: