面对火爆的AI市场,英特尔亮出大招。在 2019英特尔人工智能峰会(Intel AI Summit 2019)上,英特尔宣新推出的英特尔 Nervana 神经网络处理器(NNP)现已投入生产并完成客户交付。Nervana系列作为从云端到边缘的全新AI硬件,相比较此前在部署和性能都有较大提升。此外,在峰会上英特尔还公布了全新一代 Movidius VPU,代号为Keem Bay。可用于边缘媒体、计算机视觉和推理应用,并计划于明年上半年上市。
Nervana系列正式交付商用
英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao说,作为系统级AI解决方案的一部分,Nervana神经网络训练处理器目前已经投入生产,并已完成客户交付。
在面向AI推理和AI训练领域,英特尔相继推出了NNP-T和NNP-I两款Nervana神经网络处理器,专为大型数据中心而设计。
其中,NNP-T采用台积电16nm制程工艺,拥有270亿个晶体管,硅片总面积达680平方毫米。
应用上,NNP-T具有高度的可编程性,并支持所有主流深度学习框架,如TensorFlow、PYTORCH 训练框架和C++深度学习软件库等。
与此同时,NNP-T在计算、通信和内存之间取得了平衡,不管是对于小规模群集,还是最大规模的 pod 超级计算机,都可进行近乎线性且极具能效的扩展。
另一方面,NNP-I基于英特尔10nm Ice Lake处理器架构,同样支持所有的主流深度学习框架,在ResNet50上的效率可达4.8 TOPs/W,功率范围为10W到50W之间 。
此外,它还具备高能效和低成本,且其外形规格灵活,非常适合在实际规模下运行高强度的多模式推理。这两款产品面向百度、 Facebook 等前沿人工智能客户,并针对他们的人工智能处理需求进行了定制开发。
随着Nervana系列推出,AI解决方案的产品组合也将得到进一步的提升与优化,迎接下一波人工智能浪潮的到来。
Movidius VPU 能效达竞品6倍
除了Nervana系列,英特尔在峰会上还推出了另外一个重量级产品——下一代英特尔 Movidius VPU ,代号为Keem Bay,将计划于 2020 年上半年上市。
在性能方面,Keem Bay凭借独一无二的高效架构优势,与上一代VPU相比,其推理性能提升了10倍以上,能效则可以达到竞品的6倍。
同时,英特尔还介绍到,Keem Bay的功耗约为30W,比英伟达的TX2快4倍,比华为海思的昇腾310快1.25倍。
根据官方说法,该芯片拥有新的片上存储器架构。同时,Keem Bay提供的Tops推理量是英伟达Xavier的4倍,在充分利用的情况下,该芯片可帮助客户获得50%的额外性能。
“与同类竞品相比,Keem Bay的性能比GPU的性能更好,不仅功率、大小和成本都实现了一定程度的降低,而且还进一步补充了我们完整的产品、工具和服务产品组合。” 英特尔物联网事业部副总裁兼视觉市场和渠道部门总经理Jonathan Ballon补充说道。
会上,英特尔还发布了全新的英特尔DevCloud for the Edge,与英特尔 Distribution of OpenVINO 工具包共同解决开发人员的主要痛点,即在购买硬件前,能够在各类英特尔处理器上尝试、部署原型和测试AI 解决方案。
据了解,此次峰会更新与发布的一系列AI产品,将对其整体AI解决方案的产品组合得到进一步的提升与优化,并有望在2019年创造超过35亿美元的营收。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。