AI图像技术发展迅猛,却混淆动漫与果体引关注
AI竟混淆了动漫和果体!专家:更能确定偏见来自于人类
近一些年来,AI图像技术发展得十分迅速猛烈,来自CLIP和DALL.E其具有的强大设计能力使得无数人类设计师从内心十分佩服并自愧不如,在那之后又研发出了能够支持“输入文字输出图像”这样功能的东西,这让人留下深刻印象,但是就在正当人们举起酒杯大声叫好喝彩的时候,AI就给大家猛然泼了一桶冷水。
有一位叫史蒂夫的网友发现,他想使用之时生成一些“皮卡丘”的图片,AI却生成出不堪入目的图片,图片里皮卡丘和果体扭成一团,极具精神污染,于是他猜测,AI是不是把“皮卡丘”和黄图混淆了 。
当AI成为“黄图生成器”
史蒂夫称,其于操作期间运用完整Dall·e开展的相同测试——“一个鳄梨形状的扶手椅”,虽说这不如官方呈现的成效那般出色,然而其依旧很酷!随后他还尝试过“彩虹制成的立方体”,截至目前而言均不存在任何问题。
之后,史蒂夫着手尝试合成“动漫图片”,然其内容全然仿若AI随机拼凑而成,并非“设计”所得内容。这些动漫形象与原形象差异极大,不过多少仍能瞧出一丁点儿颜色、形状以及轮廓。但在他输入“宝可梦”之后,AI直接颠覆了他的认知!
AI开始大量“喷射”各种,混杂着“皮卡丘和黄图”的复合体,堪称精神污染程度,史蒂夫说,“我尝试了不同类型的宝可梦”,但是,“我也得到了以下内容”,而同样的事情,也发生在了“数码宝贝”上。

之后为了避免误解,史蒂夫还公开了自己训练使用的源代码。
AI自学成才,人类防不胜防
此次事件,引来了好多网友“吃瓜”,经过大伙讨论,之后得出一个意外结果,AI竟然是自学的!
在起始的时候,网友们全都心存怀疑,怀疑的对象是数据集当中存在着这样的图片,经由这般情况致使AI展开了并不正确的学习,如此一来这便全然属于人工操作所引发的失误状况了,然而倘若面对的是规模较小的图片,那么依照常理推测应该是不会给AI的训练造成任何影响才说得通,在这之后另外一种具备更高可信度的说法就这么出现了。
网友“赛博生化白菜”称,研究者没办法亲力亲为手动下载数据,他们获取充足数据的办法是从网上自动下载,另一位持相同看法的网友讲,互联网上有数以百万计的宝可梦黄图,自动爬虫会把它们收集到训练数据里,这样规模的错误足能影响AI 。
显然,“煎黄技术”并不咋样,起码研究者也没对此予以重视。虽说“AI自学黄图”这事看上去有点搞笑,然而反过来瞧便显得颇具“黑色幽默”色彩了。
AI歧视的重灾区:
近些日子,多篇于近期发布的研究表明,涵盖多种类型的一些AI模型,在其产出的结果当中,存在着基于性别以及族裔方面的偏见。并且,AI针对人类产生歧视的缘由,与“黄图生成器”这一事件,在程度上高度相近。

近日,有来自梅隆大学以及乔治华盛顿大学的AI研究者,发表了一篇针对AI歧视展开研究的研究,研究者针对某种情况进行了测试,发现它们于种族、肤色以及性别等指标方面存在偏见跟刻板印象,在所有女性生成结果里,超过一半的图像所穿的是比基尼或者低胸上衣!
研究者指出了这些偏见现象背后的一个共同的原因,这个原因是无监督学习,也就是“没有给定事先标注过的训练数据,自动对输入的数据进行分类或分群”,虽然和这两个AI的具体工作机制有差别,他们发现,采用无监督学习并无法避免人类大量很常见的诸多偏见以及歧视 。
被称作AI文学家的GPT - 3,在拿少数民族造句之际,大多会把枪击、谋杀以及犯罪联系在一起。于一项测试当中,研究者上传一张少数民族女孩的照片,让模型自动生成一段配文。文字里满是血色,其中有一句话表“不知因何缘故,我满身是血。”
可怕的是,这类AI已被诸多商业机构采用,当这类算法被越来越多地应用到现实生活当中 ,本就存在歧视和偏见的社会,会使偏见和歧视被进一步强化 ,因此研究发表者呼吁,AI研究者应当更妥善地甄别和记录训练数据集当中的内容,防止把AI教坏 !
索菲亚发觉,AI愈发深入人们生活,就愈发会反映出人们的所思所想,“黄图生成器”尽管强大,然而人类的想象力可是没有边际的,期望“AI For Good”应当被运用于更为关键之地。


欢迎 你 发表评论: