AI年度回顾:IBM Research AI的论文和预测摘要

时间:2019-03-06 18:34:21 阅读:9次

   70多年来,IBM Research一直在创造,探索和想象未来。自成立以来,我们一直在人工智能(AI)领域处于领先地位。当这个场地在着名的1956年达特茅斯车间发射时,我们在那里。仅仅三年之后,IBM和早期的计算机先驱Arthur Samuel创造了机器学习这个术语。从那时起,我们的目光始终固定在该领域的下一步,以及我们将如何到达那里。

  今天我们发布了2018年的回顾展,让人们对AI的未来有所了解。我们已经策划了今年出版的100篇IBM Research AI论文集,这些论文由来自我们12个全球实验室的才华横溢的研究人员和科学家撰写。这些科学进步是我们发明下一组基础人工智能技术的使命的核心,这些技术将把我们从今天的“狭窄”人工智能带到一个“广泛”人工智能的新时代,这个技术的潜力可以通过AI开发人员解锁,企业采用者和最终用户。广泛的人工智能的特点是能够在更广泛的任务中学习和推理,整合来自多种模式和领域的信息,同时更具可解释性,安全性,公平性,可审计性和可扩展性。

  在这里,我们重点介绍今年在三个关键领域的工作 - 推进,扩展和信任人工智能 - 以及我们关注未来的一些预测,围绕未来发展。

推进AI

AI真正听到你所说的内容:IBM Research AI为争论内容引入了机器听力理解能力。由于我们在Project Debater上的工作,这个功能扩展了当前的AI语音理解能力,超越了简单的问答任务,使机器能够更好地理解人们何时进行争论。
如果你看过一个,你已经看到了所有这些:今天的AI方法通常需要数千或数百万个标记图像才能准确地训练视觉识别模型,IBM Research AI开发了一种新颖的“少数镜头”学习方法,可以从一个例子中准确识别新对象,无需额外数据或需要标签。这种能力将人工智能的适用范围扩展到数据受限的领域。
学生成为主人:两个人通常比一个人好,现在可以说AI代理人也是如此。今年,IBM研究人员提出了一种首创的框架和算法,使AI代理能够学会相互教学并团队合作。通过交换知识,代理能够比以前的方法学得更快,并且在某些情况下,他们可以学习协调现有方法失败的地方。
问题与解答:IBM Research AI详细介绍了对开放域问题的重大改进回答(QA)方法,采用一种新方法,对多个段落中的证据进行重新排序和汇总,以产生更准确的答案。公共开放领域QA数据集的先前最先进的方法已经取得了实质性的改进。

信任AI

消除偏见的斗争:随着AI系统越来越多地用于决策支持,人工智能系统必须公平公正。然而,消除偏见具有挑战性,因为用于培训AI系统的数据通常包含内在的社会和制度偏差以及统计学习方法捕获和概括的相关性。 IBM Research AI概述了一种消除偏差的新方法,其中转换训练数据以最小化偏差,使得后来从中学习的任何AI算法将使尽可能少的不公平性永久化。在将这种方法应用于两个大型公共数据集时,我们的团队能够大幅减少不必要的群体歧视,而不会显着降低系统的准确性。
打破“黑匣子”:深度神经网络在很多方面都是黑色的盒子 - 即使网络到达正确的决定,通常也很难理解为什么做出这个决定。这种固有的可解释性缺乏对用户对AI系统的信任造成障碍,并且很难推断出潜在的故障模式。为解决这些问题,IBM Research AI科学家开发了一种名为ProfWeight的新机器学习方法,该方法探测深层网络并构建一个更简单的模型,该模型可以达到与原始网络相似的性能。凭借其降低的复杂性,这些更简单的模型可以提供有关原始网络如何工作以及为何做出一个决策与另一个决策的见解。在两个大型数据集上测试这种方法时,ProfWeight模型能够产生更多可解释的决策,同时保持高水平的准确性。
预测对抗性攻击:今天最先进的机器学习模型可以实现前所未有的预测的准确性,但它们也很容易受到被称为“对抗性示例”的精心制作的恶意输入的愚弄。例如,黑客可以在不知不觉中改变图像,使得深度学习模型被愚弄,将其分类为攻击者的任何类别欲望。从语音识别到自然语言处理,每天都在开发各种新攻击。作为防范这些攻击的关键步骤,IBM Research AI提出了一种新的攻击无关,经过认证的稳健性测量,称为CLEVER(交叉Lipschitz极值,用于网络稳健性),可用于评估神经网络抵御攻击的鲁棒性。 CLEVER评分估计攻击成功愚弄给定的深度网络模型所需的最小攻击“强度”,使得更容易推断AI模型的安全性,并提供检测和防御已部署系统中的攻击的指导。

缩放AI

8位精度加速了训练:深度学习模型非常强大,但训练它们需要大量的计算资源。 2015年,IBM提交了一份具有里程碑意义的论文,描述了如何使用16位精度(通常使用的32位精度的一半)训练深度学习模型,而不会损失精度。 IBM研究人员现在首次展示了仅用8位精度训练深度学习模型的能力,而完全是p保留所有主要AI数据集类别(包括图像,语音和文本)的模型精度。与现今的16位系统相比,这些技术将深度神经网络的训练时间缩短了2-4倍。虽然以前认为进一步降低培训精度是不可行的,但我们希望我们的8位培训平台在未来几年成为广泛采用的行业标准。
块上的新神经网络方法:BlockDrop,一种新的方式为了加速深度神经网络中的推理,学习选择要跳过深层网络的哪些层或“块”,在保持准确性的同时减少总计算量。使用BlockDrop,平均可以获得20%的推理速度,对于某些输入高达36%,同时在ImageNet上保持相同的前1个精度。
设计范围内:IBM研究人员开发了一个新的神经结构搜索技术,减少设计神经网络所需的繁重工作。该方法定义了称为“神经细胞”的重复神经结构模式,其随后通过进化过程得到改善。这种演化可以设计神经架构,在图像分类任务中实现最先进的预测准确性,无需人工干预,在某些情况下,与先前的神经架构搜索方法相比,速度可达50,000倍。
< p>尽管我们已经看到2018年的重大进展,但我们知道明年将为AI行业带来更多进步。以下是我们关注的三个趋势:

因果关系将越来越多地取代相关性:每个人都知道公鸡在黎明时的鸣叫不会“导致”太阳升起,而相反,翻转开关会导致灯亮起。虽然这种关于世界因果结构的直觉对我们的日常行为和判断是不可或缺的,但我们今天的大多数人工智能方法基本上都是基于相关性而缺乏对因果关系的深刻理解。新兴的因果推理方法允许我们从数据推断因果结构,有效地选择干预措施来测试推定的因果关系,并通过利用因果结构的知识做出更好的决策。在2019年,期望因果建模技术成为人工智能世界的核心参与者。
值得信赖的人工智能将成为焦点:今年,许多组织通过建立道德咨询委员会来应对数据泄露和消费者隐私问题,我们已经看到对“信任支柱”(算法公平性,可解释性,稳健性,透明度)的研究投入增加,以及为社会利益部署AI的努力增加。在2019年,我们将开始看到这些努力成为公司如何构建,培训和部署AI技术的核心。我们期望特别关注将这一领域的研究进展转化为实际产品和平台,同时强调鼓励技术团队的多样性和包容性,以确保许多声音和观点指导技术进步。
量子可以给予AI助手:2019年,我们将看到量子实验和研究的加速牵引力,以及量子计算如何在培训和运行AI模型中发挥作用的新研究。量子算法的核心要素是通过可控纠缠和干扰来利用指数大量子态空间。随着人工智能问题的复杂性增加,量子计算 - 数千家企业已经通过IBM的云量子计算服务访问 - 可能会改变我们处理AI计算任务的方式。
AI年度回顾:IBM Research AI的论文和预测摘要所属专题:AI专题 《AI年度回顾:IBM Research AI的论文和预测摘要》链接:http://www.zhouchuanxiong.net/739

AI年度回顾:IBM Research AI的论文和预测摘要相关文章