至顶网软件频道消息: 思科正在围绕Google Cloud的混合云服务平台——最新更名为Anthos——扩大与Google的合作。
思科将把自己一部分核心硬件平台和软件产品与Google Cloud的Anthos(以前的Cloud Service Platform)进行集成,这么做是为了在企业越来越多地采用所谓“多云”战略的时候会考虑选择思科。所谓多云战略,是指计算工作负载分布在多个云平台和私有云数据中心。
Anthos可以说是Google混合云战略的最新版本。Anthos旨在帮助客户将云工作负载转移到私有数据中心,并以同样高效的方式运行这些负载。Google的目标是让云端和本地数据中心运行服务变得更加简单,让客户可以更好地选择运行应用的环境。这一切都很好,但这些客户也需要确保他们的本地基础设施完全可以在不中断的情况下运行这些云工作负载,而这正是思科认为自己可以发挥作用的地方。
这项集成也是思科与Google数月来合作的成果。两家公司早在2017年10月就宣布将展开合作,当时双方表示,将让企业能够在混合计算环境中始终如一地运行软件。
思科还透露了关于如何实现这些目标的细节。思科云平台和解决方案部门高级副总裁Kip Compton在一篇博客文章中表示,思科正在将两个主要的硬件平台——Cisco HyperFlex和Cisco Application Centric Infrastructure——与Anthos进行集成。
HyperFlex是一个“超融合基础设施”平台,结合了软件定义的存储和数据服务以及思科统一计算系统(一个集成了计算、网络和存储资源的融合基础设施系统)。Cisco Application Centric Infrastructure(ACI)是一个软件定义的网络平台,用于构建跨云和私有数据中心的网络。其他思科产品包括Cisco Stealthwatch Cloud、Cisco SD-WAN和Cisco Intersight也将与Anthos进行集成。
思科与Google的合作也扩展到了Google的一些关键应用开发平台。例如,思科的基础设施经过优化将可以Google Kubernetes Engine——一种管理服务,可帮助协调用于托管现代应用的软件容器集群。因此,思科建议客户使用GKE而不是自己的Cisco Container Platform,尽管后者仍将被用于与其他云进行集成。
这次思科与Google的合作还涉及到Istio——一种用于连接、管理和保护微服务的服务网格。
思科云解决方案营销高级总监Fabio Gori在接受采访时表示,与GKE和Istio的集成是关键,因为这实现了从Google Cloud到客户数据中心“可管理的持续集成/持续开发流程”。 Gori表示,这是业界首创的,无论托管应用在什么位置,开发者都可以自动推送修复和更新。
人工智能也备受关注,思科和Google开发了面向Kubeflow的新软件。Kubeflow是一种开源的Kubernetes原生平台,用于开发、编排、部署和运行大型机器学习工作负载。
从本质上看,思科正试图将其平台定位为那些希望在本地运行Google Cloud工作负载的企业的最佳选择。Gori说,这样做的好处不仅仅是关乎效率,而且还涉及到安全性和数据所有权。
Compton表示:“我们将做大量的集成,这些集成凝聚了过去几年我们双方从共同合作中所学到的很多东西。我们跨数据中心产品、网络和安全产品组合的整合,最终将为客户提供最安全、最灵活的多云架构和混合架构。”
好文章,需要你的鼓励
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
尽管模型上下文协议(MCP)自11月推出以来用户数量快速增长,但金融机构等监管行业仍保持谨慎态度。银行等金融服务公司虽然在机器学习和算法方面是先驱,但对于MCP和Agent2Agent(A2A)系统的采用较为保守。监管企业通常只使用内部代理,因为其API集成需要经过多年审查以确保合规性和安全性。专家指出,MCP缺乏基本构建块,特别是在互操作性、通信标准、身份验证和审计跟踪方面。金融机构需要确保代理能够进行"了解您的客户"验证,并具备可验证的身份识别能力。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。