登录注册   忘记密码

Intel提出AI芯片新设计,能自主学习

如果有人曾让你猜测过一段视频中人物的表情,你的大脑就会在一阵电子脉冲中完成信息交换。近日,英特尔的研究者利用类似的机制设计出了他们的新型芯片 Loihi,它可以使用自己的数千个脉冲式硅“神经元”来解决问题。


英特尔的新设计得名于夏威夷的一座海底火山,到目前为止还算不上是一个真正的大脑。但它与传统的处理器非常不同。该公司表示这种方法未来将可用于制造更加智能的汽车、相机和机器人,同时也无需依赖连接到云的互联网。这样不仅再也不需要等待数据在互联网中传输,而且也有了更好的隐私保证。


英特尔表示已经对该芯片进行了测试,结果表明这款脑启发的神经形态芯片可以仅用传统芯片千分之一的能量就能完成视频解读。这样的高性能加上 Loihi 遇到新数据就能进行学习的能力有望带来更加智能的机器,这些机器将能自己适应不断变化的真实世界并为人类提供帮助。英特尔研究部门的总经理 Michael Mayberry 表示:“我们正在努力更好地理解自然环境中发生的事情。”

TIM截图20170928150010.png

英特尔实验的新芯片设计示意图,来自英特尔

Loihi 目前仍处于研发阶段。但 Mayberry 说完全版本的芯片将在 11 月份开始制造,这个版本将具有 130 000 个神经元,整体大小与小指甲盖差不多。一些学术机构和研究机构将在 2018 年开始试用这款芯片。英特尔已经制造出了两款小型的原型设计版本,目前正在测试完全版本的设计。Mayberry 估计如果 Loihi 能得到关注,也还需要两年或更长的时间才能上市。


英特尔一直在努力将当前的人工智能热潮作为公司的新增长引擎,Loihi 只是其中最新的成果而已。去年,英特尔收购了两家使用机器学习驱动云计算和计算机视觉的创业公司 Nervana 和 Movidius。今年 3 月份,英特尔又收购了以色列的 Mobileye,这家公司生产用于自动驾驶的相机和芯片。


英特尔需要新的增长业务。PC 市场已经止步不前很长时间了,而且该公司基本上已经放弃突破移动设备处理器市场了。


为了增长,英特尔收购了一些开发用于加速人工神经网络的芯片的创业公司。人工神经网络是近来科技界的热门主题,推动实现了谷歌的围棋软件 AlphaGo 的胜利等重大进展。这项技术粗略地模拟了神经元的工作方式,将很多一起工作的神经元用来过滤数据。但英特尔已有的技术(以及谷歌、微软和苹果的人工智能芯片技术)是使用传统芯片设计来驱动神经网络。


Loihi 则不一样,因为它是将神经元的自然的模拟性质做成了硬件,这种设计与当前全世界运行的计算机芯片的设计有着本质上的差异。在传统芯片中,数据会在处理器和分离的内存之间来回传输。Loihi 的“神经元”和它们之间的可调连接可以同时用作处理器和内存,这能节省用于传输数据的时间和能量。神经元之间的这种连接(类似于突触)可以随时间调整其活动模式,从而模拟真实大脑中的学习机制。英特尔使用人们表演二头弯举等动作的视频对该芯片进行了测试,看其能否识别新视频中同样的动作。


英特尔不是第一家参照神经科学设计芯片的公司。IBM 已经开发了两代神经形态处理器,尽管 IBM 的芯片不能像英特尔的一样学习新数据。IBM 的项目始于美国军方的研究机构 DARPA 的赞助,他们希望神经形态硬件能够用于自动分析战场无人机视频画面等工作。IBM 已经与两个实验室达成了交易,让他们使用自己的芯片来开发研究性系统,但该公司目前还未公布其商业应用规划。


人工智能领域的一些前沿研究者(包括 Facebook 的 Yann LeCun)都表达过对神经形态芯片的怀疑,他们指出脉冲式硅神经元目前还未表现出可媲美运行在传统芯片上的机器学习软件的强大和灵活的能力。


英特尔的 Mayberry 说他们的 Loihi 芯片的学习方式比之前的系统有更好的适应性。而且现在也正是开发该项目的好时机。


最近这股设计开发支持人工智能软件的芯片的热潮说明公司已经不再满足于只依赖传统的芯片技术了。佐治亚理工学院助理教授 Tushar Krishna 说:“所有这些公司都意识到应该进行专门的设计。”他指出曾经作为 CPU 性能增长趋势指标的摩尔定律的终结也是公司们对新思想持开发心态的又一原因。脑启发芯片仍然还远未实现,但可能已经值得严肃对待了。


附:英特尔的新自主学习芯片可加速人工智能

想象一下,有这样一个未来:我们可以更快更好地进行复杂决策和随时适应。这样我们就可以使用学习到的经验自动解决社会问题和行业问题。


在这样的未来里,应急人员可以使用图像识别应用分析道路监控图像和快速处理失踪或绑架人口的报告。


在这样的未来里,红绿灯可以根据交通状况自动调节,从而减少拥堵和优化车辆的启动和停止。


在这样的未来里,机器人将更加自动化,效率也将大大提高。


现在,收集和分析高动态和非结构化自然数据并据此进行决策的需求越来越大;这种需求也让我们越来越需要使用超越经典 CPU 和 GPU 架构的计算。为了跟紧技术进步的步伐和实现超越 PC 和服务的计算,英特尔过去六年来一直在开发可以加速经典计算平台的专用架构。英特尔最近也已经加大了在人工智能(AI)和神经形态计算方面的投资和研发。


我们的神经形态计算工作基于始于加州理工学院教授 Carver Mead 的数十年的研究与合作,这位著名教授曾为半导体设计进行了奠基性的研究。芯片专业知识、物理学和生物学的结合又催生出了新的思想。这些思想很简单但又具有变革性:将机器与人脑进行比较。这一领域的研究一直是高度合作的,也推动着科学的进步。


作为 Intel Labs 研究的一部分,英特尔已经开发出了自己的第一款自动学习神经形态芯片,代号 Loihi,这款芯片模拟了大脑的工作方式,可以根据来自环境的多种模式的反馈进行学习。这是一款非常高能效的芯片,可以使用数据进行学习和推理,并且会随时间越来越智能,而且它也不需要使用传统的方式进行训练。它使用了一种全新的计算方式——异步脉冲(asynchronous spiking)。


我们认为目前人工智能正处于起步阶段,类似 Loihi 的更多架构和方法还将继续涌现。神经形态计算的灵感源自我们目前对大脑架构和相关计算方式的理解。大脑的神经网络使用脉冲或尖峰传递信息,根据这些脉冲的时序调节互连突触的强度或权重,然后将这些改变存储在本地的互连中。而智能行为就产生于大脑中神经网络的不同区域与环境的协作和竞争性的相互作用。


通过使用大量训练数据集来识别物体和事件,深度学习等机器学习模型近来已经取得了巨大的进展。但是,只有当这些训练数据集指定了特定的元素、情况和环境时,这些机器学习才能得到很好的效果,它们的泛化能力很不好。


自动学习芯片有无限的潜在好处。比如为一个基于神经形态的系统提供一个人在不同条件(慢跑、饭后或睡前)下的心跳读数,该系统就能确定“正常的”心跳范围。然后该系统可以继续监控新输入的心跳数据,以便标记出那些不同于“正常”模式的模式。该系统可以为每位用户定制。


这样的逻辑也适用于其它用例,比如网络安全,因为该系统已经学习过多种背景中的“正常模式”,所以数据流中的异常和差异可能就预示着出现了数据泄漏或黑客攻击。


介绍 Loihi 测试芯片

Loihi 研究测试芯片包含模拟大脑基本机制的数字电路,这可使得机器学习更快更有效,同时所需的计算算力更少。神经形态芯片模型的灵感源自神经元通信和学习的方式,即使用可根据时序调节的脉冲和可塑性突触。这可以帮助计算机根据模式和相关关系进行自组织和做决策。


Loihi 测试芯片提供了高度灵活的片上学习并且将训练和推理集成到了单一一块芯片上。这让机器可以自动实时适应,而无需等待来自云的下一次更新。在解决 MNIST 数字识别问题并达到给定的准确度上,从总运算量上看,Loihi 所表现的学习速度已经超过了经典脉冲神经网络 100 万倍。与卷积神经网络和深度学习神经网络等技术相比,Loihi 在同样的任务上所需的资源也要少得多。


这种测试芯片所表现出的学习能力在汽车和工业应用以及个人机器人方面有巨大的应用潜力。实际上,任何需要在非结构化环境中进行自动操作和连续学习的应用都能从中受益,比如识别汽车或自行车的运动。


此外,在通用计算方面,它的能效也比经典训练系统高1000多倍。


Loihi 测试芯片将在 2018 年上半年分享给专注推进人工智能的领先大学和研究机构。


其它亮点

Loihi 测试芯片的功能包括:

▪完全异步的神经形态多核 mesh 网络,支持各种稀疏、分层和循环神经网络结构,且每个神经元都能与数千个其它神经元通信。

▪每个神经形态内核都包含一个学习引擎,可以在运行期间编程以适应网络参数,支持监督、无监督、强化和其它学习范式。

▪使用英特尔 14nm 工艺技术制造。

▪总共有 130 000 个神经元和 1.3 亿个突触。

▪开发和测试的几个算法都有很高的算法效率,这些算法涉及的问题有路径规划、约束满足、稀疏编码、词典学习和动态模式学习与适应。


未来

在计算和算法创新的进步的推动下,人工智能有望在超大的规模上对社会产生变革性的影响。今天,我们英特尔正在应用我们在推动摩尔定律和制造业的领导地位的优势为市场带来各种各样的产品——英特尔 Xeon 处理器、Nervana 技术、Movidius 技术和英特尔 FPGA,帮助解决从边缘到数据中心到云上人工智能负载的独特需求。


通用计算和定制硬件和软件都将在各种尺度上发挥作用。广泛用于科学计算的英特尔 Xeon Phi 处理器已经产生了一些用于解释大型科学问题的世界上最大的模型。而 Movidius Neural Compute Stick 是一个将之前训练好的模型用 1W 功率进行部署的案例。


随着人工智能负载越来越多样化和复杂化,它们将给当今主导的计算架构带来挑战并引导出现新的颠覆性方法。展望未来,英特尔相信神经形态计算在大脑工作方式的启发下,将能提供一种实现超强性能的途径。


我希望你关注接下来几个月由 Intel Labs 带来的激动人心的里程碑,因为我们将会将神经形态计算的概念带向主流,以便支持世界未来 50 年的经济发展。在使用神经形态计算的未来,随着智能和决策流变得越来越顺畅,速度越来越快,很多之前只能想象甚至超乎想象的东西都会从可能变成现实。


英特尔开发创新计算架构的愿景仍然坚定,而且我们知道未来的计算是什么样,因为那正是我们今天正在努力的方向。

您的评论:

0

用户评价

  • 暂无评论