“网络比技术人员更像是社交创作…I designed it…帮助人们一起工作” –Tim Berners-Lee,1999。

技术是我们所有弊病的根源。一世’我越来越多地听到这个。几个月前在发动机棚,一群人正在谈论技术,其中一位小组成员说,“Technology is bad”。或者给这种效果的话语。

It’不难看出为什么这个观点变得更加普遍。在过去的几年里,越来越多的书籍和文章似乎对我们的技术危然提醒了。揭示的故事,而不是Tim Berners-Lee在那些年前设想的乌托邦梦,技术正在帮助抬起特权,增加不平等,并排除一些人。

你知道这个故事。苹果’s iPhone X ‘racist’面部识别软件意味着一个中国女人’S同事可以解锁她的手机。 Google照片,自动将标签应用于人们的图片’S相册,黑人作为大猩猩的分类图像。尼康’S S630相机错误地确定了一个微笑的亚洲女人作为可能眨眼的照片。谷歌’S广告目标系统显示出于女性的高薪工作较少的广告。美国法官,假释和警察确定的黑人美国人使用的软件比白人更有可能重新偿还,这意味着他们收到了一个骚扰判决或等待的假释。

纽约时报,在一篇关于偏见的偏见中被建立在人工智能中,宣布:“这基本上是一个数据问题”.

It’s a data problem. It’s an AI problem. It’S技术问题。

我应该把我的手放在那个小组成员身上:它不是’这个技术’s the problem, it’人们建设和创建技术,数据,系统,算法。无论是有意识还是无意识,聪明,创造性的人最终是人类的偏见和偏见。善意的人,大部分地区,他正在放大不平等。

作为一个社会人类学家,它令我担忧。它也可能担心你,因为(就像我)你关心不平等。它也应该担心您,因为您可能是为数不多的产品设计产品,而不是许多产品(无意中)疏远您的一些客户,或者排除它们,或使他们的生活更加困难或更糟糕。

我不’知道解决方案是什么。多样性培训是一个建议。在发生病毒的事件后,美国在美国的员工175,000星球员工经历了种族偏见训练。但是,挑战一个人’S自我形象作为豁免种族主义(或性别歧视),挑战他们的特权,与在摘要中谈论它是非常不同的。它’拒绝直接拒绝面对我们没有经历过的人的人类。这需要超过几天’训练。更好的是增加工作场所的多样性,并为人们真正开放,以承认他们的特权和偏见。

我所知道的是,有些东西必须改变,以便为许多人建造技术,而不是少数。我希望,因为作为一个社会人类学家,我知道文化随着时间的推移而变化。我们可能不会立即看到变化。它逐渐发生。你可能还没有活着看它。但是你的孙子或你的曾孙。