面对火爆的AI市场,英特尔亮出大招。在 2019英特尔人工智能峰会(Intel AI Summit 2019)上,英特尔宣新推出的英特尔 Nervana 神经网络处理器(NNP)现已投入生产并完成客户交付。Nervana系列作为从云端到边缘的全新AI硬件,相比较此前在部署和性能都有较大提升。此外,在峰会上英特尔还公布了全新一代 Movidius VPU,代号为Keem Bay。可用于边缘媒体、计算机视觉和推理应用,并计划于明年上半年上市。
Nervana系列正式交付商用
英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao说,作为系统级AI解决方案的一部分,Nervana神经网络训练处理器目前已经投入生产,并已完成客户交付。
在面向AI推理和AI训练领域,英特尔相继推出了NNP-T和NNP-I两款Nervana神经网络处理器,专为大型数据中心而设计。
其中,NNP-T采用台积电16nm制程工艺,拥有270亿个晶体管,硅片总面积达680平方毫米。
应用上,NNP-T具有高度的可编程性,并支持所有主流深度学习框架,如TensorFlow、PYTORCH 训练框架和C++深度学习软件库等。
与此同时,NNP-T在计算、通信和内存之间取得了平衡,不管是对于小规模群集,还是最大规模的 pod 超级计算机,都可进行近乎线性且极具能效的扩展。
另一方面,NNP-I基于英特尔10nm Ice Lake处理器架构,同样支持所有的主流深度学习框架,在ResNet50上的效率可达4.8 TOPs/W,功率范围为10W到50W之间 。
此外,它还具备高能效和低成本,且其外形规格灵活,非常适合在实际规模下运行高强度的多模式推理。这两款产品面向百度、 Facebook 等前沿人工智能客户,并针对他们的人工智能处理需求进行了定制开发。
随着Nervana系列推出,AI解决方案的产品组合也将得到进一步的提升与优化,迎接下一波人工智能浪潮的到来。
Movidius VPU 能效达竞品6倍
除了Nervana系列,英特尔在峰会上还推出了另外一个重量级产品——下一代英特尔 Movidius VPU ,代号为Keem Bay,将计划于 2020 年上半年上市。
在性能方面,Keem Bay凭借独一无二的高效架构优势,与上一代VPU相比,其推理性能提升了10倍以上,能效则可以达到竞品的6倍。
同时,英特尔还介绍到,Keem Bay的功耗约为30W,比英伟达的TX2快4倍,比华为海思的昇腾310快1.25倍。
根据官方说法,该芯片拥有新的片上存储器架构。同时,Keem Bay提供的Tops推理量是英伟达Xavier的4倍,在充分利用的情况下,该芯片可帮助客户获得50%的额外性能。
“与同类竞品相比,Keem Bay的性能比GPU的性能更好,不仅功率、大小和成本都实现了一定程度的降低,而且还进一步补充了我们完整的产品、工具和服务产品组合。” 英特尔物联网事业部副总裁兼视觉市场和渠道部门总经理Jonathan Ballon补充说道。
会上,英特尔还发布了全新的英特尔DevCloud for the Edge,与英特尔 Distribution of OpenVINO 工具包共同解决开发人员的主要痛点,即在购买硬件前,能够在各类英特尔处理器上尝试、部署原型和测试AI 解决方案。
据了解,此次峰会更新与发布的一系列AI产品,将对其整体AI解决方案的产品组合得到进一步的提升与优化,并有望在2019年创造超过35亿美元的营收。
好文章,需要你的鼓励
全新搜索方式出现,字节发布宽度优先搜索基准WideSearch,垫底的竟是DeepSeek
阿里巴巴团队推出DeepPHY,这是首个专门评估AI视觉语言模型物理推理能力的综合平台。通过六个不同难度的物理环境测试,研究发现即使最先进的AI模型在物理推理任务中表现也远低于人类,成功率普遍不足30%。更关键的是,AI模型虽能准确描述物理现象,却无法将描述性知识转化为有效控制行为,暴露了当前AI技术在动态物理环境中的根本缺陷。
GitHub CEO声称AI将承担所有编程工作,但现实中AI编程工具实际上降低了程序员的生产效率。回顾编程语言发展史,从Grace Hopper的高级语言到Java等技术,每次重大突破都曾因资源限制和固有思维遭到质疑,但最终都证明了抽象化的价值。当前AI编程工具面临命名误导、过度炒作和资源限制三重困扰,但随着技术进步,AI将有助于消除思想与结果之间的障碍。
AgiBot团队联合新加坡国立大学等机构开发出Genie Envisioner机器人操作统一平台,首次将视频生成技术应用于机器人控制。该系统通过100万个操作视频学习,让机器人能够预测行动结果并制定策略,在多个复杂任务上表现优异,仅需1小时数据即可适应新平台,为通用机器人智能开辟全新路径。