8月22日,微软再次推出其针对实时人工智能的Brainwave深度学习加速平台。而微软正在逐步曝光其将深度学习平台带入可定制芯片的计划和细节,这将使Azure成为“人工智能云”。
微软至少在2016年就曾经好几次谈过Brainwave。这一次,Brainwave的推出出现在本周的Hot Chips 2017大会上。
Brainwave由高性能分布式系统架构构成,运行在被称为现场可编程阵列(FPGA)的可定制芯片上的硬件深层神经网络引擎之上,微软今天在Research博客文章中表示,其中还包括一个用于部署在受过训练的模型编译器。
如同个月在博客文章中提到的,根据微软在2016年推出的可配置云计划,Brainwave是运行在基于FPGA硬件微服务的深度学习平台。演示提到了数据中心或互联网上的“硬件加速即服务”(Hardware Acceleration as a Service)。Brainwave分布式神经网络模型可以按照需要跨越多个FPGA。
此外,微软计划七月份在公司最近于雷德蒙德举办的Faculty Research Summit上讨论Brainwave,但是最终改变了主意。
在Hot Chips 2017大会上,微软的官员们表示,使用英特尔新的Stratix-10芯片,Brainwave在没有批处理的情况下实现了39.5兆次运算的持续性能。微软认为:Brainwave将使Azure用户能够在这种级别的性能下运行复杂的深度学习模型。
这是微软在Hot Chips大会上演示文稿中的新架构图,它显示了Brainwave的组件:
微软正在寻求在硬件微服务器上运行的Brainwave,推动受到部署在云端人工智能影响的服务边界,包括计算机视觉、自然语言处理和语音。
微软表示,他们将在2018年内通过Azure为外部开发人员提供FPGA。而微软并不是唯一一家在自己的云数据中心期待FPGA的公司,目前亚马逊和谷歌都在使用定制硅完成人工智能任务。
好文章,需要你的鼓励
Luminary Cloud宣布完成7200万美元B轮融资,专注开发"物理AI"技术。该公司云原生平台可将仿真速度提升100倍,利用物理信息模型实时预测汽车、飞机等产品性能。公司推出针对特定行业的预训练模型,包括与本田合作的汽车设计模型和与Otto航空合作的飞机开发模型。融资由西门子风投领投,将用于扩大研发团队和市场销售。
清华大学研究团队通过MotionBench发现,当前最先进的AI视频理解模型在精细动作理解方面存在严重不足,准确率不足60%。他们提出的通过编码器融合技术TE Fusion有效改进了这一问题。这项研究揭示了视频AI理解的基础能力缺陷,为该领域发展指明了新方向。
伦敦量子动态科技公司宣布交付业界首台采用传统半导体制造工艺的量子计算机。该系统已安装在英国国家量子计算中心,使用标准化300毫米硅晶圆,是首台自旋量子比特计算机。系统采用CMOS技术,占地约三个19英寸服务器机架,具备数据中心友好特性。公司开发的可扩展瓦片架构支持大规模生产,未来可扩展至每个量子处理单元数百万量子比特,为商业化应用奠定基础。
上海人工智能实验室联合多家机构推出OVO-Bench评测体系,首次系统评估视频AI的在线理解能力。研究发现当前最先进的模型如GPT-4o在实时视频理解任务中表现远不如人类,缺乏时间感知、实时记忆和主动响应能力。该研究为智能家居、在线教育、医疗监护等实际应用场景的AI升级指明方向。