人工智能中避免偏差的四个关键

时间:2019-03-14 21:44:24 阅读:9次

  我们在新闻中听到“亚马逊建造了一个人工智能工具来雇用人员,但不得不关闭它,因为它歧视女性。”这不是第一次报告此类问题,它赢得了'这是最后一个因为有偏见的系统是公司很容易陷入的常见陷阱。

<! - more - >

  
“我们对我们正在使用的训练数据保持透明,并且正在寻找隐藏的偏见,否则我们正在构建有偏见的系统。如果有人试图向你出售一个用于医疗决策支持的黑匣子系统,而你不知道它是如何工作的,或者用什么数据来训练它,那么我就不相信它。“John Giannandrea,Google

什么是偏见?

  除了与公平相反之外,没有普遍接受的偏见定义。今年早些时候在YouTube上发布的视频教程列出了21种不同的算法公平性定义。虽然没有标准定义,但有几个关键的方法可以考虑它:

1)不公平和非法歧视:以不同的方式对待人们(当你不应该这样做时)

  有许多类型的非法歧视 - 最着名的是性别和种族。然而,我已经看到数据科学家在培训AIs做出决策时构建了使用这些功能的模型。我建议将这些功能作为输入。

  当您使用与歧视性特征密切相关的特征时,歧视潜入模型的一种微妙方式。例如,在美国,一个人的种族与其居住地址密切相关。这就是美国银行在做出贷款决定时不允许使用邮政编码的原因。这是一个许多雇主都陷入困境的陷阱,没有意识到简历中的文字可能包含只有女性会使用的文字。

  不要只检查非法的AI行为。考虑不道德或可能导致声誉风险的功能。如果他们不合理地利用弱势群体的特征是不道德的。例如,我看到价格弹性模型预测老年客户的价格敏感度较低(可能是因为他们没有能力访问互联网进行价格比较),然后企业向他们收取相当高的价格。在这种情况下,向这些人收取更多费用并不违法,但许多人认为利用弱势祖母是不道德的。如果您对它们的使用公开,某些功能可能会导致声誉风险。例如,如果您构建了一个AI,使用供求数据来决定客户在独立日前一周内应该为旗帜支付更高的价格,那就想象一下媒体的头条新闻!

2)巩固历史劣势

   AI只知道它的教学内容。就像送孩子上学一样,AI必须接受培训。它通过实例从历史数据中学习。如果你在有偏见的数据上训练AI,那么它将学会做出有偏见的决定。数据科学家,建立和培训AI的人,与教师和讲师具有相似的技能。正如我们不使用一百年前的教科书一样,我们不应该对包含不公平结果的数据进行人工智能培训。如果历史数据包含弱势群体不良结果的例子,那么它将学会复制导致这些不良后果的决策。

  当AI学会重复人为错误时,它会为未来确定这种行为。例如,如果人工智能接受过在一段时间内收集的数据的培训,在这段时间内,妇女在申请工作时不太可能取得成功(可能是由于人类偏见或传统性别角色近来不常见),那么人工智能将学会优先考虑男性招聘。

  仅仅因为过去发生的事情,并不意味着它将来会发生,或者你希望它继续发生在未来。

  

   “真正的安全问题,如果你想称之为,那就是如果我们给这些系统提供有偏见的数据,他们就会有偏见”John Giannandrea,Google
结果

案例研究 - 避免人工智能中的偏见

  一个企业,我们称之为Techcorp,想要构建一个算法来对每次获得的大量简历进行排序他们发布招聘广告。他们决定根据他们之前的招聘结果培训机器学习算法。他们根据每个申请人的个人资料跟踪年龄,性别,教育和其他详细信息等变量。

  他们根据历史数据训练算法,并且在能够预测哪个个体申请者能够高精度地获得工作时非常满意。它应该节省他们的人力资源团队一半的时间来阅读应用程序!

  但这不是项目的结束。 Techcorp的新人力资源主管Elle Smith不相信黑匣子。她询问AI正在使用哪些因素来做出决定。她从人工智能团队收到的报告向她展示了特征影响,衡量了人工智能决策时每个输入的重要程度。

  

  

  

  特征影响表明,性别是第六重要的输入。所以她要求看看人工智能正在做什么与性别。她收到的报告显示了她的特征效果,衡量了AI对输入要素的不同值所做的事情。

  

  

  

  特征效果图表明,AI将选择男性的频率是女性的3倍,其他条件相同。 Elle宣称这是直接歧视并且是非法的,她要求AI团队从模型中删除性别。因此,他们建立了一个不使用性别作为输入的新AI。

  人工智能团队展示了他们的第二代模型并声明这个模型与他们的第一个模型一样准确,尽管性别领域下降,但Elle仍然怀疑。她再一次要求查看哪些输入是最重要的,并向他们展示了特征影响图。

  

  

  

Elle指出,实习,教育和课外活动是最有力的指标。虽然这些都有意义,但她再一次要求看看人工智能正在利用这些功能做些什么。实习和教育是有道理的,因为受教育程度越高,实习经验越多的人越有可能被雇用。为了描述课外活动,她看了一个wordcloud。

  

  

  

  如果他们玩足球,男性主导的运动,就业人员更有可能被雇用(红色文字),如果他们玩女子主导的体育运动的无板篮球或垒球,则更不可能被雇用(蓝色文字)。此外,如果求职者在任何类型的女子运动队中,他们甚至不太可能被雇用!描述课外活动的文字只是性别的代表。使用此文本与使用性别没有区别。

  

   Elle要求AI团队确定可能代表性别的任何其他功能。他们通过建立基于任何其他特征来预测求职者是女性的概率的模型来做到这一点。

  

  

  

  特征影响图显示,课外活动是性别的唯一重要代表。 Elle告诉AI团队不要使用课外活动的文本。

  

结论

   AI和人类都可能存在偏见,并表现出不良行为。但是在AI中识别和纠正更容易。以下是构建AI时可以采取的四个步骤:

  •   不要相信黑匣子模型。坚持认为您的AI提供了人性化的解释。


  •   通过查看特征影响,特征效果和wordcloud来检查模型是否直接区分。


  •   通过使用其他功能构建预测敏感功能(例如性别)内容的模型,检查您的模型是否间接歧视。


  •   使用代表您希望AI学习的行为的训练数据。积极监控新数据和新结果,并在新数据与培训数据不同时发出警报。


      自动化机器学习可以轻松构建人工可解释的模型,以确保道德和公平的AI。如果您想了解更多信息或安排现场演示,请点击此处。

      

      

  • 人工智能中避免偏差的四个关键所属专题:人工智能专题 《人工智能中避免偏差的四个关键》链接:http://www.zhouchuanxiong.net/1222

    人工智能中避免偏差的四个关键相关文章

  • 率先塑造计算和人工智能的未来
  • 雷伊夫总统呼吁联邦资助,重点教
  • 人工智能,法律和我们的未来
  • 在医疗保健中使人工智能民主化
  • 3Q:Aleksander Madry建立值得信
  • 人工智能模型从患者数据中“学习
  • 研究发现商业人工智能系统中的性
  • 人工智能可以学会吓唬我们吗?
  • 人工智能建议基于食物照片的食谱
  • 麻省理工学院媒体实验室参与了27
  • 人工智能系统可以浏览网页以提高
  • 节能芯片可以执行强大的人工智能
  • 在ICLR 2018年探索人工智能前沿
  • 最佳思维:IBM致力于与大学合作伙
  • 麻省理工学院和IBM:将我们的“思
  • 2017年CVPR的IBM研究:通过计算机
  • 通过人工智能技术扩展温布尔登高
  • 律师事务所如何利用人工智能的进
  • 人工智能:它可以改变我们的生活
  • 我们与学术界合作推进人工智能领
  • 民主化和可解释性:DataRobot的2
  • 管理人工智能的九种方式就像管理
  • 人工智能将增强我们,而不是取代
  • 利用模糊匹配和人工智能识别重复
  • 竞争也有利于人工智能
  • 利用人工智能提供下一个最佳行动
  • 用人工智能构建智能产品
  • 人工智能正在影响艺术世界的3种方
  • 人工智能内容审核:3关键问题及答
  • 推动人工智能革命的要素?
  • 情感分析:感谢人工智能,它不再
  • 合规风险人工智能:富有成效的会
  • 人工智能对商业的影响:你准备好
  • 除了真正的人工智能之外别处其他
  • 人工智能的最大挑战:人工智能系
  • 2018年的人工智能