业界 | 联合Facebook,英特尔发布深度学习系列处理器NNP

百家 作者:机器之心 2017-10-18 06:10:31

选自mspoweruser

机器之心编译

参与:刘晓坤


今天,英特尔联合Facebook设计并发布了新的专为深度学习设计的系列处理器Intel Nervana NNP,拥有新的存储器架构,更高的可扩展性、数值并行化,并且英特尔有将深度学习性能提升100倍的野心。


英伟达最近几年在新型神经网络领域中独领风骚,甚至还为自动驾驶汽车发布了专用的芯片组,但是英特尔并不准备让这个生产 GPU 的公司独占鳌头。


英特尔 CEO Brian Krzanich 在今天的华尔街日报的 D.Live event 栏目中宣布,英特尔即将配置全世界首创的为人工智能而重新设计的系列处理器: Intel® Nervana™ Neural Network Processor family(神经网络处理器系列)。


英特尔称 Nervana NNP 是专为深度学习定做的架构,让用户从已有硬件(并非专门为 AI 而设计)的性能限制中解放出来。



芯片特征


新的存储器架构设计以最大化硅基计算机的效用


英特尔 Nervana NNP 并没有标准的高速缓存层次结构,而且单片存储器由软件直接控制以更好控制存储过程,从而使芯片可以在每一次内存释放(die)中获得高度的计算资源效用,这意味着能将深度学习模型的训练时间大大缩短。


AI 模型的可扩展性达到新的层次


英特尔 Nervana NNP 拥有高速的开和关(on and off)的芯片内部数据互联,从而允许大量数据的双向转换。这种设计的目的是实现真正的模型并行化,即神经网络的参数分布在多个芯片中。这使得多个芯片像一个大型虚拟芯片工作,因而能容纳大型的模型,使客户能从数据中获得更多的洞见。


高度的数值并行化:Flexpoint


在单个芯片上做神经网络计算极大地受到能耗和存储带宽的限制。为了使神经网络的工作负载能获得更大的吞吐量,除了上述的存储技术革新,英特尔还发明了一种新的数值类型,Flexpoint。Flexpoint 允许使用定点乘法和加法实现标量计算,并可以通过共享指数实现大动态范围。由于每一次循环变得更小,使得在每一次投掷中能实现更大规模的并行化,同时大大降低每一次计算的能耗。


最重要的性能


英特尔称这只是这个硅基芯片系列的第一个产品,并计划利用这个系列在 2020 年将深度学习训练的性能提升 100 倍。


英特尔联合 Facebook 一起设计芯片,他们的目标是培育一类新的 AI 产品,其可能性只受限于开发者的想象力。


英特尔称到了 2020 年,认知和人工智能技术将获得 460 亿美元的产业收益,而英特尔的第一代英特尔 Nervana NNP 将在今年年底加入这场竞争。


原文地址:https://mspoweruser.com/intel-announced-new-generation-of-thinking-processors/



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接