硬件的未来是人工智能

时间:2019-03-06 18:38:19 阅读:3次

   IBM的新POWER9处理器

   AI工作负载与我们当前大多数计算机的计算结果不同。 AI意味着预测,推理,直觉。但是,最具创造性的机器学习算法受到无法利用其功能的机器的阻碍。因此,如果我们要在人工智能方面取得重大进展,我们的硬件也必须改变。从GPU开始,然后演变为模拟设备,然后是容错量子计算机。

  让我们从现在开始,将大规模分布式深度学习算法应用于图形处理单元(GPU)以进行高速数据移动,最终理解图像和声音。 DDL算法“训练”视觉和音频数据,GPU越多意味着学习速度越快。迄今为止,IBM创纪录的95%扩展效率(意味着随着更多GPU的增加而提高了培训)可以识别750万个图像中的33.8%,在64个“明斯基”电力系统上使用256个GPU。

   IBM推出专为人工智能设计的业界最先进的服务器: 为AI工作负载设计的POWER9处理器

  自2009年以来,分布式深度学习以每年约2.5次的速度发展,当时GPU从视频游戏图形加速器转向深度学习模型培训师。所以我在2017年IEEE国际电子器件会议期间在应用材料公司的半导体Futurescapes:新技术,新解决方案活动中提出了一个问题:

  我们需要开发哪些技术才能继续保持这一进步并超越GPU?

超越GPU

  我们IBM研究院认为,从GPU的这种转变将分三个阶段进行。首先,我们将利用GPU并在短期内使用传统CMOS构建新的加速器以继续;第二,我们将寻找利用低精度和模拟器件进一步降低功耗和提高性能的方法;然后当我们进入量子计算时代时,它可能会提供全新的方法。

   AI系统可以容忍ML模型中的错误,因为它们可以被平均掉。即使丢失了像素,它也知道蒙娜丽莎。

   CMOS上的加速器仍有许多工作要做,因为机器学习模型可以容忍不精确的计算。正是因为他们“学习”了这些模型可以解决错误(我们在银行交易中永远不会容忍的错误)。 2015年,Suyog Gupta等人。在他们的ICML论文中展示了数学精度有限的深度学习,实际上精度降低的模型具有与当今标准64位相同的精度,但使用的浮点精度仅为14位。我们看到这种精度降低,计算速度更快,至少在2022年之前每年提高2.5倍。

  这让我们花了五年时间才能超越冯·诺伊曼的瓶颈,以及模拟设备。将数据移入和移出内存会减慢深度学习网络培训的速度。因此,找到可以结合内存和计算的模拟设备对于神经形态计算的进展非常重要。

  听起来神经形态计算模仿脑细胞。它的互连“神经元”的架构取代了von-Neumann的来回瓶颈,低功率信号直接在神经元之间进行,以实现更高效的计算。美国空军研究实验室正在测试我们的IBM TrueNorth神经突触系统的64芯片阵列,该系统专为深度神经网络推理和信息发现而设计。该系统使用标准数字CMOS,但仅消耗10瓦的能量来为其6400万个神经元和160亿个突触供电。

  但相变存储器是下一代存储材料,可能是第一个针对深度学习网络优化的模拟设备。内存 - von-Neumann架构的瓶颈 - 如何提高机器学习?因为我们已经弄清楚如何将计算带入内存。最近,IBM科学家展示了内存计算,其中100万个设备用于AI应用,发布结果,使用计算相变存储器进行时间相关性检测,在 Nature Communications 中,并在IEDM上展示session使用计算内存进行压缩感知恢复。

  模拟计算的成熟度将使每年2.5倍的机器学习时间延长几年,到2026年左右......

......进入量子时代

  虽然目前只使用几个量子比特,但在免费和开放的IBM Q体验系统上运行的算法已经显示出在化学,优化甚至机器学习中高效和有效使用的潜力。 IBM研究人员与Raytheon BBN的科学家共同撰写的论文“自然量子信息中的机器学习中的量子优势演示”演示了如何只用五个超导量子比特处理器,量子算法一致地确定与经典(非量子)算法相比,该序列的计算步骤减少了100倍,并且对噪声的容忍度更高。

   IBM Q的商用系统现在有20个量子比特,原型50个量子比特设备正在运行。它的平均相干时间为90μs,也是以前系统的两倍。但是,容错系统在今天的机器上显示出明显的量子优势仍然是一项进展中的工作。与此同时,尝试新材料(如更换铜互连)是关键 - IBM及其合作伙伴在IEDM推出的所有计算平台,从冯诺依曼到神经形态和量子的其他重要芯片改进也是关键

  保存

  保存

硬件的未来是人工智能所属专题:人工智能专题 《硬件的未来是人工智能》链接:http://www.zhouchuanxiong.net/817

硬件的未来是人工智能相关文章

  • 率先塑造计算和人工智能的未来
  • 使用人工智能来设计材料的属性
  • 新的合作通过人工智能激发全球与
  • 识别人工智能“盲点”
  • 人工智能系统使用透明的,类似人
  • 人工智能模型从患者数据中“学习
  • 用人工智能解开海洋之谜
  • 为下一代人工智能构建硬件
  • 人工智能可以学会吓唬我们吗?
  • 人工智能建议基于食物照片的食谱
  • 麻省理工学院媒体实验室参与了27
  • 马文明斯基,“人工智能之父”,
  • IBM AA AI在AAAI人工智能会议上发
  • IBM科学家在人工智能应用程序中展
  • 搜索引擎的历史:从索引卡到人工
  • 律师事务所如何利用人工智能的进
  • 人工智能:它可以改变我们的生活
  • 构建人工智能时避免人为错误
  • 民主化和可解释性:DataRobot的2
  • 人工智能中避免偏差的四个关键
  • 用人工智能构建智能产品
  • 人工智能正在改善旅游业的5种方式
  • 人工智能正在影响艺术世界的3种方
  • 什么是Computer Vision企业为什么
  • 人工智能比人类认知更好吗?
  • 人工智能内容审核:3关键问题及答
  • 内容审核人权:人工智能如何帮助
  • Clarifai精选黑客:通过人工智能
  • 人工智能第一世界的设计和用户体
  • 五大领先的人工智能应用领域以及
  • 什么是人工智能即服务(AIaaS)?
  • 可解释的人工智能:它是如何工作
  • 除了真正的人工智能之外别处其他
  • 人工智能的最大挑战:人工智能系
  • 2018年的人工智能
  • 人工智能软件定义