建立符合道德标准的人工智能

时间:2019-03-06 18:34:09 阅读:5次

  在可能出现意外情况的情景中部署的AI代理越多,他们就越需要灵活,适应性和创造性来实现目标。因此,选择通往特定目标的最佳路径需要一定的自由度,以使AI具有足够的健壮性和灵活性,足以在现实场景中成功部署。

  当AI系统解决难以解决的问题时尤其如此,这些问题的解决方案无法通过传统的基于规则的方法进行准确定义,但需要在AI中越来越多地使用数据驱动和/或学习方法。实际上,数据驱动的AI系统,例如那些使用机器学习的系统,在准确性和灵活性方面非常成功,并且在解决问题时可以非常“创造性”,找到可能对人类产生积极影响并以创新方式教授他们的解决方案解决挑战。

  然而,无边界的创造力和自由有时会导致不良行为:人工智能系统可以根据受影响社区的价值观和规范,以不被认为可接受的方式实现其目标。因此,越来越需要通过提供系统必须运行的边界来理解如何约束AI系统的动作。这通常被称为“价值对齐”问题,因为这些边界应该模拟特定AI应用场景所需的值和原则。

  在IBM Research,我们研究并评估了两种将人工智能系统与道德原则相结合的方法:

第一种方法使用相同的形式主义来模拟和组合主观偏好(实现服务个性化)和道德优先级(实现价值一致性)[3]。偏好和道德优先级之间的距离概念用于确定行动是否可以仅由偏好确定,或者当偏好与这些优先级过于分散时是否需要考虑其他道德优先级。
第二个使用强化学习方法(在强盗问题设置中)用于奖励最大化,并从正面和反面的例子中学习道德准则[2]。我们在父母指导的情况下测试了这种方法,以及药物剂量选择和生活质量考虑因素。

  描述我们整体方法的论文以及解决价值对齐问题的两种可能方法是将在即将举行的AAAI 2019大会上发布,并将获得AAAI 2019蓝天理念奖[1]。它可以在这里找到。

  这项工作是了解如何与麻省理工学院合作将道德原则融入人工智能系统的长期努力的一部分。虽然在[2]和[3]中进行的研究将道德优先级建模为道义约束,但IBM-MIT团队目前正在收集人类偏好数据,以模拟人类如何遵循和切换不同的道德理论(如功利主义,道义论,然后,为了将适当调整的道德理论和转换机制设计到AI系统中。通过这种方式,这样的系统将能够更好地与人们在做出决策时推理和行动道德的方式保持一致,从而更好地适应人工智能的增强智能方法中与人类自然而紧密地互动。


“建立道德有界人工智能”,Francesca Rossi和Nicholas Mattei将出现在AAAI 2019年会议录,高级会员演讲曲目,蓝天创意奖论文。
“将行为约束纳入在线人工智能系统”, Avinash Balakrishnan,Djallel Bouneffouf,Nicholas Mattei,Francesca Rossi,将出现在AAAI 2019年的会议录中。
“关于CP网之间的距离”,Andrea Loreggia,Nicholas Mattei,Francesca Rossi,K。Brent Venable。在Proc。 AAMAS 2018,斯德哥尔摩,2018年7月。
建立符合道德标准的人工智能所属专题:人工智能 《建立符合道德标准的人工智能》链接:http://www.zhouchuanxiong.net/733

建立符合道德标准的人工智能相关文章