经过两年的内测和去年10月以来的公共预览阶段,微软终于正式发布Azure Linux通用版本。
Azure Linux是面向Azure Kubernetes服务(AKS)的开源容器主机操作系统,专门针对Azure进行了优化,能帮助开发人员更轻松地运用微软工具部署和管理容器工作负载。简单来讲:Azure Linux专为云端部署和运行多个容器而生。
Azure Linux源自微软之前的CBL-Mariner项目,其中CBL代表Common Base Linux。微软Azure Linux首席项目经理Jim Perrin表示,微软打造CBL-Mariner是为了满足内部需求,即通过统一的Linux平台支持工程师们在Azure上运行各种工作负载。
在Build 2023大会的问答环节中,Perrin谈到微软定制打造的这套开源发行版“让我们以清晰明确的思路针对Azure,并通过调整组件使其完全符合我们容器主机的实际需求,同时尽可能保持依赖项和外部软件包。”
而其中“最明确的定位”,就是要求Azure Linux主要作为AKS的容器主机。其专门针对微软Windows Hyper-V管理程序进行了优化,能够在虚拟机中运行并同时支持x86和Arm架构。
也就是说,Azure Linux还具备广泛的适用能力。
微软在支持页面中写道,“Azure Linux容器主机可在AKS、AKS-HCI和Arc产品中提供涵盖云端到边缘的可靠性和一致性。您可以在新集群中部署Azure Linux节点池,将Azure Linux节点池添加至现有Ubuntu集群,也可以将您的Ubuntu节点迁移为Azure Linux节点。”
Perrin强调,轻量化是Azure Linux发行版的一大关键特性。其体积小巧,核心镜像加300个软件包仅有400 MB,而且拥有良好的性能和安全水平。
Perrin在博文中解释称,安全是Azure Linux始终关注的重点,所有更新都将通过Azure验证测试后方可运行,且测试套件也将持续更新。
“此外,由于容器主机中的软件包较少,所以相应的安全补丁数量也更少,安全问题也会得到及时修复。我们将密切监控并全面管理软件供应链,更好地保障端到端质量和弹性。”
以上种种,正是微软决定自主开发Linux,而不是直接对Fedora、CentOS或其他商业级Linux做改造的理由。微软虽然也从别处借用了一些代码,但绝不是简单推出自己的fork。
“Azure Linux是一套完全独立的发行版。”
说起Azure Linux的来历,Perrin还提到历史进程在微软决策中发挥的重要作用。2001年,时任微软CEO的Steve Ballmer曾留下“金句”:“Linux是种癌症。”
“微软在Linux领域有着悠久的参与历史。当初的敌意早已是过眼云烟……但很多情绪确实一直延续至今,所以我们之所以放弃以现有发行版为基础、结合自身需求做fork,就是不想再被社区生态视为「蹭成果」的家伙。我们要摆脱那种旧日印象。”
“我们认为从零开始进行构建才是正道。我们可以根据需求进行定制,根据需求进行更改。坦白说,这就是Linux生态系统的意义所在。我们想要解决自身痛点,并将成果回馈给整个社区。”
不少技术企业已经签约成为微软Azure Linux的合作伙伴,包括Tenable、DataDog、HashiCorp和Dynatrace等。
Palo Alto Networks也在其Prisma Cloud上支持将Azure Linux用作AKS容器主机。公司高级产品营销经理Derek Rogerson表示,镜像大小属于“少即是多”的典型场景。
Rogerson在博文中写道,“对客户来说,更小的镜像能够减少攻击面,去掉不必要的软件包也有助于降低修复和维护压力。”
同样是在本届Build大会上,微软还公布了Kubernetes Apps——AKS平台的第三方开源产品集合。目前已经正式登陆Azure Marketplace。
Kubernetes Apps于2022年10月开放公共预览版,支持一键式部署、CI/CD自动化、自动化生命周期管理和技术支持,同时提供灵活的消费选项。
其中各类应用由微软统一审查和认证,并经过严格的漏洞扫描。考虑到供应链攻击事件的持续增加,这对安全保护来说无疑意义重大。
而就在一周之前,Azure Container Storage(一项专为容器创建和管理块存储卷的全托管服务)开放公共预览版。据微软介绍,这项软件设计存储服务能帮助企业更好地在AKS上运行生产级工作负载。
好文章,需要你的鼓励
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
尽管模型上下文协议(MCP)自11月推出以来用户数量快速增长,但金融机构等监管行业仍保持谨慎态度。银行等金融服务公司虽然在机器学习和算法方面是先驱,但对于MCP和Agent2Agent(A2A)系统的采用较为保守。监管企业通常只使用内部代理,因为其API集成需要经过多年审查以确保合规性和安全性。专家指出,MCP缺乏基本构建块,特别是在互操作性、通信标准、身份验证和审计跟踪方面。金融机构需要确保代理能够进行"了解您的客户"验证,并具备可验证的身份识别能力。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。