AWS今天宣布Bottlerocket全面上市,这是一款专门为了运行软件容器而开发的开源Linux发行版。
主流的Linux发行版不仅设计可以运行容器(容器让应用可以运行在多个计算环境中),而且还可以运行一系列其他工作负载,因为支持大量用例,所以有大量难以管理的组件。
在开发Bottlerocket时,AWS去掉了很多标准Linux组件,只保留了运行容器工作负载所需的组件,从而打造了一个易于管理且更为安全的操作系统,之所以安全性更高,是因为Bottlerocket较小的代码库减少了黑客可以利用的潜在漏洞。
此外,AWS采取了许多其他防护措施来防止威胁,例如工程师利用Rust语言编写了Bottlerocket的大部分内容,这与主要用C语言编写的Linux内核相比降低了缓冲区溢出的可能性。
此外AWS还提高了Bottlerocket的安全性以应对所谓的持久性威胁。持久性威胁(也称为持久性恶意软件)是一种恶意程序,可以获取对操作系统关键组件的访问权,并利用这些组件隐藏其踪迹。
Bottlerocket通过称为dm-verity的Linux内核功能来降低此类攻击的风险,该功能会检测未经许可被篡改的操作系统,而这也是发现隐藏持久性恶意软件的一个可靠方法。
AWS产品经理Samartha Chandrashekar在博客文章中表示:“Bottlerocket还可以通过阻止与生产服务器的管理连接来强制实施一种操作模型,进一步提高安全性。”管理员帐户通常可以广泛访问云实例,这使其成为黑客的目标。“登录到单个Bottlerocket实例,对于高级调试和故障排除来说是一种不常见的操作行为。”
Bottlerocket简化容器运行的另一种方法,是简化操作系统更新。将操作系统变更部署到运行关键任务应用的容器环境,这种行为是存在风险的,因为部署问题可能会导致停机。考虑到这一点,AWS在Bottlerocket中开发了一项名为原子更新的功能,让管理员可以在导致错误的情况下安全地撤消操作系统变更。
“可以以原子方式应用和回滚Bottlerocket的更新,使其更容易实现自动化,减少管理开销,降低运营成本,”Chandrashekar说道。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。