至顶网软件频道消息: 软件容器公司Portworx正与HPE合作,以更快的速度部署和扩展容器化工作负载。

Portworx表示,按需应用程序(例如打车应用)的崛起推动了对云原生和基于容器的框架的需求,这些框架可以扩展以满足日益增长的性能需求。软件容器是开发人员使用的一种工具,它可以构建在任何平台上运行的应用,不管底层是什么硬件或软件。
Portworx公司主要售卖面向容器的永久性存储系统。Portworx表示,提供该框架是通过将Portworx产品与HPE Synergy平台相结合,将计算、存储和网络集成到一个"可组合"的单元中实现的。这个新的配置使用了Portworx存储平台和Kubernetes作为容器编排工具。
Portworx所谓新的"参考配置"也突出按需应用是如何帮助加速从每个"状态"容器(当每个实例出现故障的时候数据在这里受到损坏)到"无状态"容器(可保留数据从而更好地适合生产需求)的过渡。
HPE生产管理副总裁McLeod Glass说:"大规模运行企业容器工作负载需要高度灵活、可扩展和可用的计算和存储。"
这就解释了为什么需要将Portworx的云原生存储系统与HPE Synergy平台相结合,以扩展Kubernetes集群上的计算服务。因此,这一参考配置有助于简化有状态容器服务的交付,这突显了"在自动化和控制之间实现企业IT的重要平衡",Portworx首席执行官Murli Thirumale在一份声明中这样表示。
HPE的Synergy平台有助于自动进行硬件配置,而Portworx用于有状态工作负载的PX企业存储层则用于自动管理应用。下面是一个快速图表,展示了这些如何联系在一起:
图
Portworx表示,这一点非常重要,因为DevOps团队需要更高的自动化水平,以确保按需应用能够提供预期的性能。利用新的配置,可以在没有安装软件的裸机服务器上运行容器应用和后端数据库,也可以在基于Synergy的虚拟机上运行容器应用和后端数据库。
此外,参考配置还简化了Kubernetes的集成,并且更容易按需启动实例,消除了对第三方服务提供商的需求。
好文章,需要你的鼓励
模型上下文协议(MCP)服务器是连接概率性大语言模型和确定性微服务工作流的关键节点,充当推理引擎与外部数据工具的翻译层。在生产环境中部署AI智能体时,MCP服务器承担着定义智能体能力、管理上下文数据和执行操作三大核心职责。由于其非确定性客户端特性,传统单元测试无法有效验证,需要通过端到端测试来确保系统可靠性,这使得MCP服务器成为智能体架构中不可或缺的关键基础设施。
SimWorld是由UCSD等多所顶尖院校联合开发的革命性AI仿真平台,基于虚幻引擎5构建了具备真实物理规律的虚拟城市环境。该平台支持无限扩展的程序化世界生成和自然语言交互,让AI智能体能够在复杂环境中学会生存、合作和竞争,为通用人工智能的发展提供了前所未有的训练平台。
英伟达推出Vera Rubin计算平台,专为驱动具备思考和推理能力的智能AI系统而设计。该平台采用NVL72液冷机架系统,集成六种芯片包括新Vera CPU和Rubin GPU。相比Blackwell架构,Rubin GPU推理速度提升5倍,训练速度提升3.5倍。平台还推出推理上下文内存存储解决方案,性能提升5倍。此外,英伟达还发布了面向自动驾驶的开源Alpamayo模型系列。
浙江大学联合华为提出C2DLM,这是一种因果概念引导的扩散语言模型,通过自动提取因果关系并融入注意力机制来增强AI推理能力。相比传统方法,C2DLM在推理任务上平均提升1.31%-12%,训练效率提高3.2倍,为解决语言模型推理能力不足开辟了新路径。