Red Hat发布了一个OpenShift容器化平台的技术预览版,该平台可以驱动跨x86和Arm芯片的集群。
Red Hat 2022年3月发布的OpenShift 4.10版本,现在可以在Amazon Web Services Arm支持的Graviton CPU上运行了。当时,RedHat表示该版本“只是我们OpenShift on Arm计划的开始,在接下来的版本中,将会看到在x86上运行的附加功能越来越多地可用于OpenShift on Arm。”
这家IBM的子公司的新一代版本(4.11版)于本周早些时候推出,增加了基于代理的安装程序、支持更多部署配置,包括在Nutanix环境中运行的能力,以及更高级别的FedRAMP合规性,还有一个技术预览版。
Red Hat在公告中表示,并非用户依赖的所有应用程序和服务都可以在Arm上使用。虽然该公司认为这个问题随着时间的推移会自行解决,但“我们也不想在短期内停止采用。”这就是为什么Red Hat喜欢在不同架构的计算节点中采用完全异构集群的思路。
公告宣称:“有了这个功能,用户可以在一个OpenShift 集群中并排运行这些Arm和x86应用程序。”
但它没有说明该功能何时可用于生产,或者在微软的Azure云之外使用,微软的Azure云是目前唯一可以运行异构集群的地方。
该公告指出:“你将能够在现有的OpenShift x86集群中添加基于Arm的节点进行优化。”
“在未来的版本中还会有更多关于此功能的内容,但是我们觉得你会高兴能够有一点早期的尝试来真正激发你的胃口。”
想象一下Kubernetes 管理容器在不同架构上运行,充分利用每种架构的功能或价格结构。再想象一下,IBM最终可能在自己的云上提供Arm产品,因为OpenShift是IBM的首选平台。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。