ZD至顶网软件频道消息: 如今,移动互联网的广泛应用和云计算的高速发展,为企业传统IT架构带来了巨大的挑战:用户体验前置、IT基础设施广泛云化、产品迭代越来越快,开发、测试和运维工作逐渐融合,被DevOps所取代。
云智慧总裁刘洪涛表示,十年前,企业的IT开发人员和运维人员是分开的,就像中间隔了一堵墙。但是现在,产品迭代越来越快,开发、测试和运维工作逐渐融合,这堵墙需要被打破,DevOps就是破墙之法。
但是,DevOps的实现并不简单,很多企业用户在实施DevOps时遇到了各种问题。如何让开发人员在应用开发中获得真实用户的反馈,从而降低运维风险;运维人员又如何将运维中遇到的问题回访到开发测试环境中去?刘洪涛表示:云智慧全栈应用性能管理跨越了开发和运营这两个环境,满足DevOps的诉求。
近日,云智慧发布全栈性能管理解决方案,正式推出面向业务的企业级应用全生命周期管理解决方案。据了解,该解决方案包括了云智慧旗下IT全栈性能监控工具监控宝、端到端性能管理平台透视宝、大规模性能测试平台压测宝和移动自动化测试平台,并通过大数据可视化分析把IT系统的性能数据和企业业务数据实现关联,对企业应用进行全生命周期的性能管理。刘洪涛表示,全栈性能管理可以基于真实业务场景,同时满足企业用户对于移动持续研发和敏捷交付的需求。

按照刘洪涛的介绍,这套应用性能全生命周期管理可以从四方面满足DevOps的诉求:
第一,移动自动化测试。应用经济的到来,让移动成为企业IT不可或缺的组成部分。企业需要不断开发新的移动应用以实现企业的各种业务目标。在这种情况下,确保移动应用的性能至关重要,这就要求在开发环境中对移动应用进行全覆盖测试。与落后的手动和远程测试不同,云智慧移动自动化测试工具提供更加快速的测试手段,可靠且可维护的自动化测试方法,兼容多系统平台及不同OS版本的稳定测试环境,针对设备性能的测量手段和基于持续集成的实时反馈,满足移动产品持续研发和敏捷交付的需求。
第二,性能测试。互联网+的深化应用让企业信息系统规模和复杂度与日俱增,用户以每年百万级的速度飞快增长,产品频繁迭代、升级,而测试环境和生产环境的差距却难以反映真实用户体验。云智慧的性能测试真正实现全链路真实环境的压力测试,真实地再现用户使用环境,在测试阶段准确定位性能问题,并对业务线上性能瓶颈进行预测和分析。
第三,性能管理和性能监控,统称叫应用性能管理。无论是在传统IT架构还是在云端,基础设施和应用的运行健康状态都是保证服务稳定可靠的基础,也是最耗费企业运维部门精力的工作。云智慧全栈性能监控产品监控宝以满足企业运维工程师的高效运维需求为出发点,通过将运维日常巡检工作自动化,把开发和运维人员从繁琐的日常工作中解放出来,进行更有价值的系统支撑工作,为DevOps的推进打下基础。
此外,当移动互联网与云计算出现后,用户不必再和企业的服务人员打交道,而是通过移动APP来直接获取服务,这就造成用户体验前置。传统的ITOM产品由于缺少有效的移动端和云端监管手段,难以发现用户体验前置带来的性能瓶颈,云智慧端到端性能管理平台透视宝以业务的视角,对整个用户体验交付链条的每一个环节进行数据采集和分析,准确发现和定位影响用户体验的任何性能问题。
刘洪涛介绍道:“我们可以实现每一个用户真实体验的监控,包括用户在使用应用过程中有没有遇到错误、异常、崩溃等问题,即使在夜晚用户停止使用应用,监控系统依然可以通过全球范围的监测点,每隔一分钟就对核心业务、应用和交易进行访问,以确保系统的万无一失。”
第四,安全问题。应用的安全越来越重要,为此,云智慧和业界知名安全供应商一起合作,基于云服务的产品进行主动扫描和内部监测,以及应用运行时的安全漏洞扫描,以确保应用安全。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。