Red Hat发布了一个OpenShift容器化平台的技术预览版,该平台可以驱动跨x86和Arm芯片的集群。
Red Hat 2022年3月发布的OpenShift 4.10版本,现在可以在Amazon Web Services Arm支持的Graviton CPU上运行了。当时,RedHat表示该版本“只是我们OpenShift on Arm计划的开始,在接下来的版本中,将会看到在x86上运行的附加功能越来越多地可用于OpenShift on Arm。”
这家IBM的子公司的新一代版本(4.11版)于本周早些时候推出,增加了基于代理的安装程序、支持更多部署配置,包括在Nutanix环境中运行的能力,以及更高级别的FedRAMP合规性,还有一个技术预览版。
Red Hat在公告中表示,并非用户依赖的所有应用程序和服务都可以在Arm上使用。虽然该公司认为这个问题随着时间的推移会自行解决,但“我们也不想在短期内停止采用。”这就是为什么Red Hat喜欢在不同架构的计算节点中采用完全异构集群的思路。
公告宣称:“有了这个功能,用户可以在一个OpenShift 集群中并排运行这些Arm和x86应用程序。”
但它没有说明该功能何时可用于生产,或者在微软的Azure云之外使用,微软的Azure云是目前唯一可以运行异构集群的地方。
该公告指出:“你将能够在现有的OpenShift x86集群中添加基于Arm的节点进行优化。”
“在未来的版本中还会有更多关于此功能的内容,但是我们觉得你会高兴能够有一点早期的尝试来真正激发你的胃口。”
想象一下Kubernetes 管理容器在不同架构上运行,充分利用每种架构的功能或价格结构。再想象一下,IBM最终可能在自己的云上提供Arm产品,因为OpenShift是IBM的首选平台。
好文章,需要你的鼓励
来自耶路撒冷希伯来大学的研究团队开发了WHISTRESS,一种创新的无需对齐的句子重音检测方法,能够识别说话者在语音中强调的关键词语。研究者基于Whisper模型增加了重音检测组件,并创建了TINYSTRESS-15K合成数据集用于训练。实验表明,WHISTRESS在多个基准测试中表现优异,甚至展示了强大的零样本泛化能力。这项技术使语音识别系统不仅能理解"说了什么",还能捕捉"如何说"的细微差别,为人机交互带来更自然的体验。
这项研究提出了"力量提示"方法,使视频生成模型能够响应物理力控制信号。研究团队来自布朗大学和谷歌DeepMind,他们通过设计两种力提示——局部点力和全局风力,让模型生成符合物理规律的视频。惊人的是,尽管仅使用约15,000个合成训练样本,模型展现出卓越的泛化能力,能够处理不同材质、几何形状和环境下的力学交互。研究还发现模型具有初步的质量理解能力,相同力量对不同质量物体产生不同影响。这一突破为交互式视频生成和直观世界模型提供了新方向。
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。