宏模网>科技 >AI也有偏见:你在机器“眼里”是好人还是坏蛋?
作者:匿名     发布时间:2019-10-24 08:56:17
AI也有偏见:你在机器“眼里”是好人还是坏蛋?

人工智能是从人类那里学到的,人类是有偏见的生物。

最近,麻省理工学院的博士生在两项独立研究中发现,尽管机器擅长识别人工智能生成的文本,但很难区分真假文本。原因是用于训练机器识别虚假新闻的数据库充满了人类偏见。因此,训练有素的人工智能不可避免地带有成见。

人类偏见是人工智能领域的一种常见疾病。图像轮盘数字艺术项目通过使用人工智能分析来描述用户上传的图片,揭示了这个严重的问题。本期《全媒体学校》独家编辑了《纽约时报》对图像轮盘赌项目的评论,向你展示了人工智能背后的“隐藏偏见”。

一天早上,当网民tabong kima发推时,他看到了一个名为# imagenet轮盘赌的实时热门搜索。

在这个热门搜索中,用户上传自拍到网站,然后人工智能被用来分析和描述它看到的每张脸。imagenet轮盘就是这样一个网站,它将男性定义为“孤儿”或“不吸烟者”。如果他戴眼镜,他可能会被贴上“书呆子、白痴和怪胎”的标签。

一名推特用户上传了他的照片,被人工智能认定为“强奸嫌疑犯”,标签位于照片的左上角。

在kima看到的推特信息中,有些标签是准确的,有些奇怪,有些令人愤慨,但它们都是为了好玩,所以他加入了进来。然而,这个结果让这位24岁的非裔美国人不开心——他上传了一张自己的微笑照片,然后网站把他贴上了“非法”和“犯罪”的标签。

“也许我不懂幽默,”他在推特上说,“但我不认为它有趣。”

注:截至发布之时,imagenet-roulette.paglen.com网站已经离线,现已切换到www . driving . ai .后者的网页发表了一篇由原项目创始人撰写的文章,“挖掘人工智能:机器学习训练集中的图像政治”

事实上,kima的反应正是网站想要看到的。imagenet轮盘赌是一个数字艺术项目。在人工智能正在迅速改变个人生活的时候,该项目旨在揭露一些正在扩散到人工智能技术中的奇怪、毫无根据和令人不快的行为,包括互联网公司、公安部门和其他政府机构广泛使用的面部识别服务。

面部识别和其他人工智能技术通过分析来自过去网站和学术项目的大量数据来学习技能,这些数据不可避免地包含微妙的偏差和其他多年没有被注意到的缺陷。这也是为什么美国艺术家特雷弗·帕格伦和微软研究员凯特·克劳福德发起了图像轮盘赌项目——他们希望在更深层次上揭露这个问题。

“我们想揭露偏见、种族主义和厌恶女性是如何从一个系统转移到另一个系统的,”帕格伦在电话采访中说。“关键是让人们了解幕后发生的事情,看看我们是如何被对待和分类的。”

作为本周米兰普拉达基金会博物馆展览的一部分,该网站聚焦于著名的大型可视化数据库imagenet。2007年,以李菲菲为首的研究人员开始讨论imagenet项目,该项目在“深度学习”的兴起中发挥了重要作用,“深度学习”是一种使机器能够识别包括人脸在内的图像的技术。

“训练人类”摄影展在米兰普拉达基金会博物馆开幕,展示人工智能系统如何通过训练观察和分类世界。

Imagenet收集了1400多万张从互联网上提取的照片,并探索了一种训练人工智能系统和评估其准确性的方法。通过分析各种图像,例如花、狗和汽车,这些系统可以学习如何识别它们。

在人工智能的讨论中,很少提到imagenet还包含成千上万人的照片,其中每一个人都被分类到某个类别。有些标签很简单,比如“啦啦队员”、“焊工”和“童子军”;有些人明显情绪化,比如“失败者、绝望者和不成功者”和“奴隶、荡妇、邋遢女人和流氓”。

Paglen和crawford发起了imagenet轮盘赌项目,应用这些标签来展示观点、偏见甚至攻击性观点是如何影响人工智能的,不管标签看起来是否无害。

成千上万的匿名人士使用Imagenet的标签,其中大多数来自美国,受雇于斯坦福大学的团队。通过亚马逊土耳其机械公司的众包服务,他们每个照片标签赚几美分,每小时浏览数百个标签。在这个过程中,偏见被包括在数据库中,尽管不可能知道这些被贴上标签的人是否有这样的偏见。

但是他们定义了“失败者”、“荡妇”和“罪犯”应该是什么样子。

这些标签来自另一个巨大的数据集wordnet,这是普林斯顿大学研究人员开发的机器可读语义词典。然而,字典包含这些炎症标签,斯坦福大学图像网的研究人员可能没有意识到这项研究存在问题。

人工智能通常是在巨大数据集的基础上训练的,甚至它的创造者也不能完全理解这些数据集。利兹·奥沙利文说:“人工智能总是在大规模运行,这会带来一些后果。”他曾在人工智能初创公司clarifai负责监控数据标签,现在是民权和私人组织stop的成员,这些组织都被称为调查技术监督项目(Survey Technology Oversight Project),旨在提高人们对人工智能系统问题的认识。

imagenet数据中的许多标签都是极端的。然而,同样的问题也可能出现在看似“无害”的标签上。毕竟,甚至“男人”和“女人”的定义也需要讨论。

奥沙利文说:“给女性照片贴标签时(无论她们是否成年),可能不包括非金发或短发女性。”。"因此,人工智能模型中只有长发女性。"

最近几个月,研究人员发现,亚马逊、微软和ibm等公司提供的面部识别服务对女性和有色人种有偏见。通过iam genet轮盘赌项目,paglen和crawford希望吸引人们对这个问题的关注,他们确实做到了。随着该项目在推特上的流行,图像轮盘赌最近每小时产生了超过10万个标签。

克劳福德和帕格伦说:“我们没想到它会这样受欢迎。”。“它让我们看到人们对这件事的真实想法,并真正参与其中。”

对有些人来说,这只是一个玩笑。但是其他人,比如kima,可以理解克劳福德和帕格伦的意思。“他们做得很好,不是我以前没有意识到这个问题,而是他们暴露了它,”基马说。

然而,帕格伦和克劳福德认为这个问题可能比人们想象的更严重。

Imagenet只是众多数据集之一。这些数据集被技术巨头、初创企业和学术实验室重用,以培训各种形式的人工智能。这些数据库中的任何缺陷都可能已经开始扩散。

如今,许多公司和研究人员正试图消除这些缺点。微软和ibm升级面部识别服务以应对偏见。当paglen和crawofrod在今年1月首次讨论imagenet中的奇怪标签时,斯坦福大学的研究人员禁止下载数据集中的所有人脸图像。现在,他们说他们会删除更多的人脸图像。

斯坦福大学的研究小组向《纽约时报》发表了一份声明。他们的长期目标是“解决数据集和算法中的公平、问责和透明问题”

但对帕格伦来说,一个更大的担忧正在逼近——人工智能是从人类身上学到的,因为人类是有偏见的生物。

“我们给图像贴标签的方式是我们世界观的产物,”他说。"任何分类系统都将反映分类器的值."

作者:所有媒体组,公开号码:所有媒体组(身份证:全美牌)

这篇文章最初是由“所有媒体集团”发表的。每个人都是产品经理。未经允许禁止复制。

主题地图来自unsplash,基于cc0协议。

相关新闻
新闻排行
 
随机推荐