Red Hat决定支持新的云原生计算基金会(CNCF)项目。Red Hat在一篇官方博文中指出,他们投资的新项目名为Confidential Containers,属于CNCF支持的机密计算联盟中的一个新型项目。
Confidential Containers,简称“CoCo”,目前刚刚发布了首个0.1.0版本。从极低的版本号就能看出,目前的CoCo属于新生技术,还没有准备好迎接实际应用。此外,它的说明文档也还远称不上完善。
这种在可信执行环境(TEE)中运行容器的思路,多年来已经在大部分处理器架构中得到实现,例如OpenTEE。但也有研究人员发现了回避这种保护机制的方法。
在TEE之内运行全部容器的最大挑战,在于如何限制TEE与主机之间的通信,常规容器是无法轻松实现这种限制的。毕竟容器的本质就是直接在主机之上运行的普通进程内核。
相比之下,如今运行加密虚拟机还更容易些,也有多家厂商在提供硬件支持。包括Google Cloud所使用的AMD SEV,英特尔的同类方案SGX以及新近出现的TDX等。
因此,为了让工作负载能运行在TEE之内但由Kubernetes负责管理,CoCo项目使用了另一项技术Kata Containers。它是由英特尔的ClearContainers与Hyper runV合并而来,而且得到了OpenStack基金会的支持。
根据CoCo项目文档概述,该工具初步支持五种不同的TEE技术,首先是AMD和英特尔工具,外加两种IBM技术:用于POWER服务器的Protected Execution Facility(PEF)和面向z/架构大型机的Secure Execution。
如果这项计划真能成功,那么未来应该会快速支持更多架构——例如Arm的TrustZone,以及RISC-V自己的可信执行环境技术。
可能跟传统本地计算设施打过多年交道的朋友,一时之间理解不了为什么要对自己的虚拟机进行加密。咱们可以换个思路,如果这些虚拟机是运行在其他人的硬件之上并通过网络开放访问,那这种加密就瞬间有了意义。
虽然配套的硬件支持已经部署到位,但真正实现起来仍非易事。如果CoCo项目能尽快把这项功能简化进K8s配置页面或者YAML行中的复选框形式,肯定会受到很多人的欢迎。而且芯片供应商那边应该也会为此拍手叫好,毕竟再轻量化的虚拟机往往也要比容器更耗资源。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。