三年半了!英特尔这颗AI芯片鱼雷要发射了吗

  英特尔那款专用AI芯片的大招已经憋三年半了。

  英特尔那款专用AI芯片的大招已经憋三年半了。

  准确来说,Nervana——英特尔砸了3.5亿美元买下的那家加州创企——他们那款专用AI芯片的大招已经憋三年半了。

  2014年4月,在Nervana获得首笔60万美元的成立之初,这家公司就宣布要打造一款“深度学习专用硬件”。而在2014年8月,在获得第二笔融资(330万美元)后,其CEO Naveen Rao就表示,“用户能在大约6个月后尝试到这些深度学习专用硬件。”

  三年多后,在经历了第三轮2050万美元融资并且被英特尔收购后,在今年10月17日,英特尔CEO科再奇在采访中表示,这块芯片在今年年底就会正式和用户见面。与此同时他还说,Facebook正在参与合作打造这款AI专用芯片。

  然而,随着2017年转眼就要余额不足,英特尔这款Nervana专用AI芯片的还是没有正式亮相。尤其是在欧美连珠炮假日季“感恩节-圣诞节-元旦”来临的12月底,我们可以大胆地假设一句——明年见(也许是2018 CES?)

  不过,虽然大招一再推迟,但是英特尔集团上下依旧对于Nervana项目十分看重。英特尔CEO科再奇不仅在不同场合内一再为Nervana站台,而且在收购Nervana后短短几个月间,前Nervana CEO就被晋升为英特尔人工智能事业部总负责人,直接向科再奇汇报——在以资历排位著称的英特尔内,晋升速度堪称火箭。

  (前Nervana CEO、英特尔人工智能事业部总负责人Naveen Rao)

  今天,我们就来扒一扒Nervana与这块英特尔专用AI芯片,同时也来看一看英特尔这三年多的等待和3.5亿美元的资金砸出了多大一个响来?也看看英特尔这个曾经PC时代当之无愧的霸主,如今能不能靠着Nirvana在人工智能领域提刀再战?

  一、比GPU更好、更快、更强大

  深度学习分为训练(Training)和应用(Inference)两个阶段,Nervana芯片瞄准的是训练阶段,这一阶段需要计算机处理大量的数据,现有的CPU难以满足如此强大的计算需求,这也是英伟达靠着GPU崛起的重要原因。

  目前Nervana芯片主要应用在云计算数据机房内。Nervana CEO Naveen Rao曾经表示,Nervana使用的这种新型芯片设计架构比GPU更快、功耗更低、性能更好。

  (英特尔Nervana深度学习专用芯片设计架构)

  根据英特尔在2016年11月的AI Day上,我们第一次了解到了这块Nervana深度学习专用芯片的设计架。这款芯片为2.5D封装,搭载了32GB的HBM2内存,内存带宽为8Tbps。芯片中没有缓存,完全通过软件去管理片上存储。它可以支持各类神经网络算法框架的加速,比如Nervana的Neon、谷歌的TensorFlow、Facebook的Caffe等。

  Nervana CEO表示,之所以这款芯片能够做到比更快CPU、比GPU更快地加速处理深度神经网络,原因有二:

  1、这块芯片由“处理集群”阵列构成,处理被称作“活动点(flexpoint)”的简化数学运算,基于张量处理器的架构。相对于浮点运算,这种方法所需的数据量更少,因此带来了10倍的性能提升。

  2、“互联(interconnect)”技术——这是Nervana芯片的真正亮眼之处,不过Nervana一直这一技术的细节讳莫如深——Naveen Rao将这项互连技术描述为一种模块化架构,其芯片结构可以在编程上扩展成与其它芯片的高速串行连接,帮助用户创造更大、更多元化的神经网络模型。

  在GPU上,数据在芯片内部处理和芯片外部通信处理有很大的不同,必须将内存映射到I/O,在内存不同层次结构中移动数据,造成延时等复杂问题。而Nervana的互联技术能让芯片内的数据传输和芯片间的数据通信看起来一样,从而加快了处理速度。

  “正如在PC时代,人们发现用GPU处理图片比CPU更快,于是转而购买独立GPU;而在人工智能时代,人们会发现用我们的芯片处理深度神经网络比GPU更好,于是转而选择我们,”Naveen Rao曾经这样说,“我们可以在硬件上打败英伟达。”

  如此看来,也许英特尔这三年多的等待和3.5亿美元的资金砸得不亏?——可以说亏,也可以说不亏。

热门文章HOT NEWS
网址导航>>
中文科技资讯 科技魔方 高科技网 财经资讯网 汽车点讯 中国财经消费网 高端金融网 祥房网 中国新闻热线 家电资讯网 财经快讯网 中国财经热线网