识别人工智能“盲点”

时间:2019-03-03 11:23:50 阅读:6次

麻省理工学院和微软研究人员开发的一种新型模型确定了自主系统从训练样本中“学习”的实例,这些实例与现实世界中实际发生的事实不符。工程师可以使用该模型来提高人工智能系统的安全性,例如无人驾驶车辆和自动机器人
例如,为无人驾驶汽车提供动力的AI系统在虚拟模拟中被广泛训练,以便为几乎所有在路上的事件准备车辆。但有时汽车在现实世界中会出现意外错误,因为事件发生应该但不会改变汽车的行为。
考虑一辆未经过培训的无人驾驶汽车,更重要的是没有必要的传感器,以区分截然不同的场景,例如大型白色轿车和道路上带有红色闪光灯的救护车。如果汽车在高速公路上行驶,救护车在警报器上轻弹,那么汽车可能不会知道减速和停车,因为它并不认为救护车与大型白色轿车不同。
在去年的Autonomous Agents和Multiagent Systems会议以及即将召开的人工智能促进会议上发表的一篇论文中,研究人员描述了一个利用人类输入来揭示这些训练“盲点”的模型。
与传统方法一样,研究人员通过模拟训练设置了AI系统。但是,当人们在现实世界中行动时,人类密切监视系统的行为,在系统制造或即将发生任何错误时提供反馈。然后,研究人员将训练数据与人体反馈数据相结合,并使用机器学习技术生成一个模型,该模型可以精确定位系统最有可能需要更多关于如何正确行动的信息。
研究人员使用视频游戏验证了他们的方法,模拟人员校正了屏幕角色的学习路径。但下一步是将该模型与传统的自动驾驶汽车和机器人培训和测试方法相结合,并提供人工反馈。
“这个模型帮助自治系统更好地了解他们不知道的东西,”第一作者Ramya Ramakrishnan说,他是计算科学和人工智能实验室的研究生。 “很多时候,当部署这些系统时,他们训练有素的模拟与现实环境不匹配[并且]他们可能会犯错误,例如发生事故。我们的想法是利用人类以安全的方式弥合模拟和现实世界之间的差距,这样我们就可以减少其中的一些错误。“
这两篇论文的共同作者是:Julie Shah,航空航天系副教授,CSAIL交互式机器人小组负责人;来自微软研究院的Ece Kamar,Debadeepta Dey和Eric Horvitz。 Besmira Nushi是即将发表的论文的另一位合着者。

采取反馈

一些传统的训练方法确实在实际测试运行期间提供人工反馈,但仅用于更新系统的操作。这些方法不能识别盲点,这对于在现实世界中更安全的执行可能是有用的。
研究人员的方法首先通过模拟训练建立一个人工智能系统,在那里它将产生一个“政策”,基本上将每种情况都映射到模拟中可以采取的最佳行动。然后,系统将部署在现实世界中,人类在系统行为不可接受的区域提供错误信号。
人类可以通过多种方式提供数据,例如通过“示范”和“修正”。在示威中,人类在现实世界中行动,而系统则观察并比较人类的行为与在那种情况下所做的事情。例如,对于无人驾驶汽车,如果计划行为偏离人类行为,则人类会手动控制汽车,而系统会发出信号。与人类行为的匹配和不匹配提供了系统可能以可接受或不可接受的方式行动的嘈杂指示。
或者,人类可以提供校正,人类监视系统在现实世界中的行为。当自动驾驶汽车沿着其计划的路线行驶时,人可以坐在驾驶座上。如果汽车的行为是正确的,人类什么都不做。然而,如果汽车的动作是不正确的,那么人可能会接收到车轮,该车轮发出一个信号,表明系统在该特定情况下没有采取不可接受的行为。
一旦编译了来自人的反馈数据,系统基本上具有情况列表,并且对于每种情况,多个标签说明其行为是可接受的或不可接受的。单一情况可以接收许多不同的信号,因为系统将许多情况视为相同。例如,自动驾驶汽车可能会在大型汽车旁边多次巡航而不会减速和拉动。但是,在一个例子中,一辆救护车,与系统看起来完全相同,巡航。自动驾驶汽车不会停车并接收反馈信号,系统采取了不可接受的行动。
“在这一点上,系统已经被人类发出了多个相互矛盾的信号:一些人旁边有一辆大型汽车,而且一切都很好,还有一辆救护车在同一个位置,但那不是很好。系统稍微注意到它做错了什么,但它不知道为什么,“Ramakrishnan说。 “因为代理人正在获得所有这些矛盾的信号,下一步是编制信息,问我'在我收到这些混合信号的情况下,我有多大可能犯错?'”

智能聚合


最终目标是将这些模棱两可的情况标记为盲点。但这不仅仅是为每种情况简单地计算可接受和不可接受的行动。例如,如果系统在救护车情况下执行了9次中的9次正确动作,那么简单的多数投票就会将这种情况标记为安全。
“但由于不可接受的行为远比可接受的行动少得多,该系统最终会学会将所有情况预测为安全,这可能非常危险,”Ramakrishnan说。
为此,研究人员使用了Dawid-Skene算法,这是一种通常用于众包处理标签噪声的机器学习方法。该算法将一系列情况作为输入,每个情况都有一组嘈杂的“可接受”和“不可接受”的标签。然后,它聚合所有数据,并使用一些概率计算来识别预测盲点标签中的模式和预测安全情况的模式。使用该信息,它为每种情况输出单个聚合的“安全”或“盲点”标签以及该标签中的置信水平。值得注意的是,该算法可以在例如90%的时间内可接受地执行的情况下学习,这种情况仍然模糊不清以至于值得“盲点”。
最后,该算法产生一种“热图”,其中来自系统原始训练的每种情况被指定为从低到高的概率,成为系统的盲点。
“当系统部署到现实世界中时,它可以使用这种学习模型更谨慎,更智能地行动。如果学习模型预测状态是一个具有高概率的盲点,系统可以向人类查询可接受的动作,从而允许更安全的执行,“Ramakrishnan说。
计算机与信息科学教授埃里克·伊顿(Eric Eaton)的研究重点是:“这项研究很好地发现了模拟器和现实世界之间何时存在不匹配,直接从专家对行为者行为的反馈中推动发现。”在宾夕法尼亚大学的机器人学。他补充说,该研究“具有很好的潜力,可以让机器人预测何时可能会在新的情况下采取不正确的行动,而不是专家(人)操作员。接下来的挑战将是利用这些发现的盲点并利用它们来改善机器人的内部表现,以更好地匹配现实世界。“

识别人工智能“盲点”所属专题:人工智能专题 《识别人工智能“盲点”》链接:http://www.zhouchuanxiong.net/277

识别人工智能“盲点”相关文章

  • 使用人工智能来设计材料的属性
  • 雷伊夫总统呼吁联邦资助,重点教
  • 识别人工智能“盲点”
  • 人工智能,法律和我们的未来
  • 3Q:Aleksander Madry建立值得信
  • 学生小组探讨了人工智能的伦理维
  • 人工智能峰会解决了技术对就业和
  • 研究发现商业人工智能系统中的性
  • 利用人工智能改善早期乳腺癌检测
  • 人工智能建议基于食物照片的食谱
  • 马文明斯基对人工智能的终身成就
  • 在Think 2019上观看IBM的人工智能
  • 人工智能服务的实况报道
  • IBM科学家在人工智能应用程序中展
  • 人工智能的时代 - 以及将提供它的
  • 基于人工智能的低薪工人财务顾问
  • 最佳思维:IBM致力于与大学合作伙
  • 2017年CVPR的IBM研究:通过计算机
  • 政府和人工智能:在省钱的同时提
  • 我们与学术界合作推进人工智能领
  • 宣布人工智能合作伙伴关系让人民
  • 人工智能中避免偏差的四个关键
  • 人工智能将增强我们,而不是取代
  • 人工智能如何预测哈里王子和梅根
  • 用人工智能构建智能产品
  • 人工智能让世界变得更加包容的3种
  • 人工智能内容审核:3关键问题及答
  • 内容审核人权:人工智能如何帮助
  • 从人眼到人工智能:视觉简史
  • 人工智能与机器人过程自动化:天
  • 可解释的人工智能:它是如何工作
  • 情感分析:感谢人工智能,它不再
  • 合规风险人工智能:富有成效的会
  • 人工智能工作:专家很少但报酬很
  • 我们如何通过人工智能庆祝Pi日:
  • 以人工智能为动力的客户体验管理