帕茨大学的研究员与普林斯顿大学同事合作表明,人工智能(AI)可以表现出与人类相同的偏见和偏见。

“我们首次展示第一次,如果AI是通过我们的语言利用文化编制的巨大知识,它将不可避免地继承人类prejudice”

 

Joanna Bryson博士(如上图)从宾馆的计算机科学部门从普林斯顿的信息技术政策(CITP)中心度过了一年,研究了计算和AI的道德。 “术语'AI'具有负面关联,但我们每天使用AI。从谷歌到Facebook到智能手机,它几乎都是我们所做的几乎所有我们所做的一切,“她说。

虽然人工智能和机器学习在一段惊人的增长中,担心这些技术可能易于对研究人员表示同样的偏见和不公平的人。

“我们首次展示了人类的语义偏见是由应用标准机器学习的普通语言的应用导致 - 同一种语言人类每天都会暴露在一起,”团队说。因为偏差是用用于训练机器的语言,所以它会传递到结果,从道德上的中性偏向朝向昆虫或花朵,以更有问题的种族或性别。

“我们首次展示,如果AI通过我们的语言利用这种文化编制的巨大知识,它将不可避免地继承人类的偏见,”球队说。 “换句话说,如果AI学习足够的语言属性,以便能够理解和生产它,它还获得了可能是冒犯,令人反感或有害的文化协会。这些比有意歧视更广泛的问题,并且可能更难解决。”

结果不仅对AI和机器学习的影响,而且对心理学,社会学和人道伦德的领域有影响,因为它们提出了仅仅对日常语言接触的可能性可以占偏差。

我们可以避免偏见AI吗?

许多人认为机器学习是中立的,给出了人类社会中存在的公平。相反,对机器偏见的担忧现在即将到来。这些已经在研究范围内记录了从在线广告到犯罪量刑。

大多数专家和评论员建议AI应始终透明地应用,当然肯定没有偏见。算法的代码和应用程​​序的过程都必须对公众开放。透明度应该允许法院,公司,公民看门狗和其他人理解,监控,并建议改进算法。

另一项建议是促进AI开发人员之间的多样性,以解决对机器学习算法的不敏感或明智的培训。三分之一是鼓励工程师和领域专家之间的合作,他们了解历史不平等。

你可以追随Bryson博士’在CITP网站工作