Red Hat发布了一个OpenShift容器化平台的技术预览版,该平台可以驱动跨x86和Arm芯片的集群。
Red Hat 2022年3月发布的OpenShift 4.10版本,现在可以在Amazon Web Services Arm支持的Graviton CPU上运行了。当时,RedHat表示该版本“只是我们OpenShift on Arm计划的开始,在接下来的版本中,将会看到在x86上运行的附加功能越来越多地可用于OpenShift on Arm。”
这家IBM的子公司的新一代版本(4.11版)于本周早些时候推出,增加了基于代理的安装程序、支持更多部署配置,包括在Nutanix环境中运行的能力,以及更高级别的FedRAMP合规性,还有一个技术预览版。
Red Hat在公告中表示,并非用户依赖的所有应用程序和服务都可以在Arm上使用。虽然该公司认为这个问题随着时间的推移会自行解决,但“我们也不想在短期内停止采用。”这就是为什么Red Hat喜欢在不同架构的计算节点中采用完全异构集群的思路。
公告宣称:“有了这个功能,用户可以在一个OpenShift 集群中并排运行这些Arm和x86应用程序。”
但它没有说明该功能何时可用于生产,或者在微软的Azure云之外使用,微软的Azure云是目前唯一可以运行异构集群的地方。
该公告指出:“你将能够在现有的OpenShift x86集群中添加基于Arm的节点进行优化。”
“在未来的版本中还会有更多关于此功能的内容,但是我们觉得你会高兴能够有一点早期的尝试来真正激发你的胃口。”
想象一下Kubernetes 管理容器在不同架构上运行,充分利用每种架构的功能或价格结构。再想象一下,IBM最终可能在自己的云上提供Arm产品,因为OpenShift是IBM的首选平台。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。