AWS和微软将联手发布一个名为Gluon的开源深度学习库,两家公司称此举能够让更多开发者利用机器学习,这个机器学习库为开发者提供了一个接口,他们可以通过这个接口为云和移动应用打造、构建、训练和部署机器学习模型。
据称,与其他产品相比,Gluon是一个更为简洁、易于理解的编程接口,让开发者有机会快速地打造神经网络原型并进行实验,而不用牺牲性能。
Amazon AI副总裁Swami Sivasubramanian表示:“今天的现实情况是,构建和训练机器学习模型需要大量的繁重的专业知识。我们创建了Gluon接口,让构建神经网络和训练模型变得和构建一个应用一样简单。”
Gluon接口目前适用于Apache MXNet,未来版本还将支持微软Cognitive工具套件。开发者可以使用Python API和一系列预构建的神经网络组件来构建机器学习模型。
AWS和微软还发布了Gluon在GitHub上的参考规范,可让其他深度学习引擎能够整合该接口。
微软AI及研究企业副总裁Eric Boyd表示:“我们相信对于行业来说,相互合作和池化资源以打造有益于更广泛群体的技术,这是非常重要的。机器学习有能力变革我们工作、交互和交流的方式。为了实现这一点,我们需要提供适当的工具,Gluon接口就是我们在这个方向迈出的一步。”
这并不是两家科技巨头围绕AI进行的首次合作,今年8月两家公司承诺将在今年年底实现微软Cortana和Amazon Alexa之间的通信。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。