英特尔首款AI专用芯片交付商用,性能亮眼

作者:郝伟静   【原创】   2019-11-13 19:50:41

关键字: AI芯片 人工智能 英特尔

在 2019 英特尔人工智能峰会现场,英特尔宣布——新推出的 Nervana 神经网络处理器(NNP)现已投入生产并完成客户交付。

面对火爆的AI市场,英特尔亮出大招。在 2019英特尔人工智能峰会(Intel AI Summit 2019)上,英特尔宣新推出的英特尔 Nervana 神经网络处理器(NNP)现已投入生产并完成客户交付。Nervana系列作为从云端到边缘的全新AI硬件,相比较此前在部署和性能都有较大提升。此外,在峰会上英特尔还公布了全新一代 Movidius VPU,代号为Keem Bay。可用于边缘媒体、计算机视觉和推理应用,并计划于明年上半年上市。

Nervana系列正式交付商用

英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao说,作为系统级AI解决方案的一部分,Nervana神经网络训练处理器目前已经投入生产,并已完成客户交付。

在面向AI推理和AI训练领域,英特尔相继推出了NNP-T和NNP-I两款Nervana神经网络处理器,专为大型数据中心而设计。

其中,NNP-T采用台积电16nm制程工艺,拥有270亿个晶体管,硅片总面积达680平方毫米。

应用上,NNP-T具有高度的可编程性,并支持所有主流深度学习框架,如TensorFlow、PYTORCH 训练框架和C++深度学习软件库等。

与此同时,NNP-T在计算、通信和内存之间取得了平衡,不管是对于小规模群集,还是最大规模的 pod 超级计算机,都可进行近乎线性且极具能效的扩展。

另一方面,NNP-I基于英特尔10nm Ice Lake处理器架构,同样支持所有的主流深度学习框架,在ResNet50上的效率可达4.8 TOPs/W,功率范围为10W到50W之间 。

此外,它还具备高能效和低成本,且其外形规格灵活,非常适合在实际规模下运行高强度的多模式推理。这两款产品面向百度、 Facebook 等前沿人工智能客户,并针对他们的人工智能处理需求进行了定制开发。

随着Nervana系列推出,AI解决方案的产品组合也将得到进一步的提升与优化,迎接下一波人工智能浪潮的到来。

Movidius VPU 能效达竞品6倍

除了Nervana系列,英特尔在峰会上还推出了另外一个重量级产品——下一代英特尔 Movidius VPU ,代号为Keem Bay,将计划于 2020 年上半年上市。
在性能方面,Keem Bay凭借独一无二的高效架构优势,与上一代VPU相比,其推理性能提升了10倍以上,能效则可以达到竞品的6倍。

同时,英特尔还介绍到,Keem Bay的功耗约为30W,比英伟达的TX2快4倍,比华为海思的昇腾310快1.25倍。

根据官方说法,该芯片拥有新的片上存储器架构。同时,Keem Bay提供的Tops推理量是英伟达Xavier的4倍,在充分利用的情况下,该芯片可帮助客户获得50%的额外性能。

“与同类竞品相比,Keem Bay的性能比GPU的性能更好,不仅功率、大小和成本都实现了一定程度的降低,而且还进一步补充了我们完整的产品、工具和服务产品组合。” 英特尔物联网事业部副总裁兼视觉市场和渠道部门总经理Jonathan Ballon补充说道。

会上,英特尔还发布了全新的英特尔DevCloud for the Edge,与英特尔 Distribution of OpenVINO 工具包共同解决开发人员的主要痛点,即在购买硬件前,能够在各类英特尔处理器上尝试、部署原型和测试AI 解决方案。

据了解,此次峰会更新与发布的一系列AI产品,将对其整体AI解决方案的产品组合得到进一步的提升与优化,并有望在2019年创造超过35亿美元的营收。

    扫一扫

    分享文章到微信


    北京第二十六维信息技术有限公司(至顶网)版权所有. 京ICP备15039648号-7 京ICP证161336号京公网安备 11010802021500号
    举报电话:010-62641205-5060 举报email:jubao@zhiding.cn 安全联盟认证