业界人士以及他们的七姑八姨时下都在用Kubernetes管理云容器。即便是Kubernetes的前对手Docker Swarm和Mesosphere也只好认输。Mesosphere于10月初投在Kubernetes旗下,Docker于10月底增加了Kubernetes支持。唯一的问题是:这些不同的Kubernetes实现是否兼容?由于云本机计算基金会(Cloud Native Computing Foundation ,缩写为CNCF)出手,答案是可以兼容。
Kubernetes的母公司CNCF宣布,至少32家公司将支持Kubernetes软件一致性认证计划。笔者在写此文时又有其他公司加入进来。问题不在于“哪些Kubernetes公司支持这个新计划?”,问题在于 “哪些Kubernetes公司不支持这个新计划?”答案是,在Kubernetes空间里,真正数得上的Kubernetes公司没有一家不支持。
Kubernetes软件一致性认证将确保每个供应商的Kubernetes版本都支持旗下所需的应用程序编程接口(API)。对于Kubernetes用户来说,这就确保了不同Kubernetes安装之间的互操作性,为用户提供了灵活性并可保持用户相对于供应商的独立性。
Kubernetes架构技术联盟(Kubernetes Architecture SIG)将是程序API一致性定义的最终仲裁者。Kubernetes架构技术联盟负责维护和发展Kubernetes的设计原则。
最初的认证将基于Kubernetes 1.7及更新的版本。认证方案有力地保证了商业化Kubernetes产品和服务会继续发布新版本,以确保客户可以充分利用Kubernetes的快速发展。 Kubernetes的发展速度在开源软件历史里是顶级的。大约每两个月就会发布一个新版本。
CNCF执行董事Dan Kohn在一份声明中解释时表示,“新的”Kubernetes软件一致性认证确保了企业部门的信心,如果工作负载在某个认证过的Kubernetes发布版或平台上可以运行,那么该工作负载也可以在任何其他版本上正常运行。认证计划确保了互操作性,这对于Kubernetes的目标是十分重要的,Kubernetes的目标是提供得到许多供应商支持的、可以部署在任何公共云、私有云或混合云上的单一开源软件堆栈。”
Kohn还表示,具体而言,该认证计划是基于“现有Kubernetes项目API的一个子集。这些API将完成一致性测试。即是说,用户启动新的容器时,不管用的是什么供应商创建的Kubernetes版本,容器的运作是一致的“。
供应商可以自己运行一致性测试套件(https://github.com/cncf/k8s-conformance/blob/master/instructions.md),并可提交一致性测试结果进行评审和CNCF认证。最终用户应确保自己的供应商合作伙伴的Kubernetes产品是经过认证的。
认证Kubernetes的实施可以使用新的认证Kubernetes标志,也可以将Kubernetes标志与产品名称结合使用(例如XYZ Kubernetes服务)。
这一切都是为了哪一樁呢? 谷歌云副总裁Eyal Manor有如下的解释,“从谷歌开源Kubernetes的那一天起,我们的目标就是为开发人员提供一个可移植的原生云平台,以便可以在公共云及混合云环境中快速部署服务。供应商利用认证Kubernetes一致性计划则可以证明他们的产品是纯Kubernetes产品,会提供持续的、无缝的升级,这可以令用户有信心自己能够不断地从Kubernetes的创新和可移植性受益。”
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。