注册

人脸识别出现“技术偏见”,长得太黑无法识别?


来源:爱范儿

原标题:人脸识别出现“技术偏见”,长得太黑无法识别? 在演唱会“抓逃犯”上屡建奇功的人脸识别,其实还

原标题:人脸识别出现“技术偏见”,长得太黑无法识别?

在演唱会“抓逃犯”上屡建奇功的人脸识别,其实还是不成熟的技术,具体表现在对肤色和性别的歧视上。 微软发现,商用人脸识别识别肤色较浅的男性准确率最高,而失误率最严重的是肤色较深的女性。

这可算是人脸识别的“技术偏见”了。 这种偏见一旦在大范围应用中“显现”,声讨种族和性别“歧视”的声音,将会淹没微软。 为了解决充满偏见的技术,微软 Face API 团队对其识别系统进行了三次重大改进。最新的人脸识别系统,识别肤色较深的人错误率降低了 20 倍,识别所有女性的失误率减低了 9 倍。 尽管有了改进,但目前的人脸识别,还不是完美的系统。微软认为,问题的根本解决办法还是训练数据库,需要收集更多的数据,包括不同肤色、发型和面部饰品等。

▲ 研究发现,微软和 IBM 的识别黑人女性出错率高。图片来自:Daily Mail 中国人普遍的黄皮肤,刚好避开了“最浅”和“最深”的肤色。但我国也有外貌特征各异的少数民族,如果人脸识别对此产生技术偏见,就不是简单的“开地图炮”了,可能会引发严重的民族矛盾。 至于“更大范围攻击”的性别歧视话题,在我国也变得非常敏感,该庆幸人脸识别技术目前还没有惹来“性别歧视骂战”。 偏见的锅不能完全甩给人工智能,技术也是反映真实社会的镜子。 微软研究实验室的高级研究员、AI 系统公平性专家 Hanna Wallach 在一份声明中回应:                   如果我们训练机器学习系统使用有偏见的社会产生的数据,来模拟那个社会做出决定,那么这些系统必然会重现它的偏见。 例如,在一些社区中,黑人的犯罪率更高,AI 根据收集来的数据,更容易把肤色较深的人划分到“逃犯”的分类中。这是群体给个体的伤害,人脸识别只不过“遵循了”社会偏见。

▲ 微软人脸识别的情绪检测功能。图片来自:thenextweb 相比起导致“歧视”,研究团队更希望 AI 能检测和减轻偏见,以弥补现实社会中的不完美。 追捕逃犯用大范围攻击的“种族炮”和“性别炮”容易伤及无辜,人脸识别的方向是更精密的“狙击枪”。 一直对人脸识别技术保持警惕的美国,其海关部门也要启用人脸识别系统,但收到强烈的反对。 关于人脸识别,最近亚马逊的幺蛾子也很多,先是美国公民自由联盟向亚马逊提交请愿信,接着 100 多名内部员工也要求首席执行官 Jeff Bezos 停止向美国警方出售人脸识别软件。目前,美国奥兰多市警察局与亚马逊的人脸识别合同已过期,双方还没决定续约。 “亚马逊人”签署的部分内容:                   我们公司不应该在监控业务中; 我们不应该参与警务工作; 我们不应该从事支持监督和压迫边缘化人群的人。

▲ ICE 将启用微软人脸识别软件. 图片来自:Inc. 尽管微软员工与亚马逊员工的想法一致,坚决认为人脸识别软件侵犯人权,对美国最近的移民政策尤其不满,希望微软 CEO Satya Nadella 停止与 ICE (美国移民和海关执法部门)签署协议,但目前仍没收到成效。 人脸识别技术到底带来了安全保障,还是带来了歧视,侵犯了个人自由?美国科技公司们的“纠结”,也许值得我们思考,看演唱会被人脸识别,到底是不是妥当的? 题图来源:Gigaom

  • 好文
  • 钦佩
  • 喜欢
  • 泪奔
  • 可爱
  • 思考

频道推荐

凤凰网公益基金救助直达

凤凰网科技官方微信

凤凰新闻 天天有料
分享到: