AWS昨天发布了一款全新的开源操作系统——Bottlerocket,该系统适用于在裸机服务器或虚拟机上运行的软件容器。
目前,AWS Bottlerocket还处于预览状态,是一套精简的操作系统,仅包含启动和运行容器必不可少的组件,同时支持Docker映像和其他符合Open Container Initiative(OCI)映像格式的映像。
软件容器在开发人员中很流行,因为容器可用于承载运行在多种计算基础设施上,而无需更改基础代码的应用。
但是软件容器需要一个主操作系统,并且绝大多数容器都是运行在并非针对容器设计的通用操作系统上。AWS布道师Jeff Barr在公布Bottlerocket的博客文章中写道,“大多数系统都是逐包更新的,这意味着自动化是一项艰巨的任务。”
因此,操作系统更新不仅速度慢,而且还会因为增加了攻击面而引起安全问题。此外,更新也可能会出现问题,容易出错,与软件包的不一致会随着时间的推移缓慢破坏容器群集的完整性。
因此,AWS推出了Bottlerocket,可以一次性更新而不是逐包更新,这让用户更容易通过容器编排服务(例如Amazon EKS)自动更新操作系统。
Barr说:“Bottlerocket代替了软件包更新系统,采用基于图像的简单模式,在需要的时候快速完整地回滚,从而避免了冲突和破坏,让用户可以更容易地使用EKS等协调器,从容地进行整体更新。”
此外,一次性更新的方式还有助于强化容器应用的更新,最大程度上减少更新失败,并在发生问题的时候实现回滚。
Constellation Research分析师Holger Mueller表示:“厂商们展开了一场让容器操作和监控尽可能简单和高效的竞赛。Bottlerocket的目标就是让企业更容易操作容器,”当然,这还要取决于客户是否感兴趣、是否采用。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。