在企业的运营团队看来,系统的稳定性和可靠运行时间是至关重要的。因此,企业更乐意向能够负责的技术提供商购买开发完整的、有文档记录的,并且有售后支持的工具或软件。
一般来说,运营团队没有额外精力来应付新奇的DIY软件和工具,因为他们已经整天忙于处理各种复杂的基础设施、应用和客户。但最终,大部分运营团队却还是在使用混合在一起的各种工具– 包括众多技术提供商的产品与企业的内部开发软件。
另一方面,企业的开发团队却是软件开发者。他们常会专为某项工作而开发出特定的工具,并且乐意和同事们分享这些工具。敏捷开发意味着持续集成和持续部署,因此开发者们协作开发工具来自动处理单调的任务之后,也加速了应用的生命周期。我们所说的“客户至上”是依赖于响应速度的,而响应速度又依赖于自动化程度。在支持软件的高频次敏捷发布方面,开源的协作模式一直是非常有效的。
研发运维一体化(DevOps)使企业内的开发和运营团队开始产生协作,并且使两种相去甚远的团队文化也擦出了火花。系统稳定性依旧重要,但在客户时代,更重要的是贯穿了软件整个生命周期的敏捷性– 这也包括了运营团队的软件发布、软件部署和支持工作。开源协作工具在应用开发方面的成功预示着运维也可能朝这个方向发展。
去年,许多企业都在向Forrester咨询开源APM工具是否能够取代已有的商业解决方案。同时,我们也见证了APM提供商越来越多地参与到开源的贡献,参与和使用当中。变革正在发生着。
更多关于开源APM的内容,请见我们的报告“研发运维一体化将推动开源APM的发展”。您的企业对开源APM有怎样的看法?欢迎联系我们并且阐述您的观点。
好文章,需要你的鼓励
Captions公司研究团队开发的Mirage模型实现了从音频直接生成说话视频的突破。该技术能准确生成与声音匹配的面部表情、唇型同步、手势动作和环境背景,甚至可仅从音频推测说话者外貌特征。基于统一的Diffusion Transformer架构,Mirage避免了传统方法的复杂专用模块设计,展现出卓越的情感表达和细节还原能力,为内容创作、教育培训和无障碍技术等领域开辟了新的应用可能。
牛津大学研究发现,尽管大语言模型在医学考试中表现出色,但在实际应用中效果大打折扣。研究显示,LLM直接测试时能94.9%准确识别病症,但人类使用LLM诊断时准确率仅34.5%,甚至低于不使用AI的对照组。问题源于用户提供信息不完整、LLM理解偏差等人机交互问题。专家指出,仅凭非交互式基准测试评估LLM存在误导性,需要真实的人机交互测试才能准确评估AI系统的实际性能。
NAVER和KAIST研究团队发现,先进AI模型在数学题自我修正方面存在严重缺陷。他们创建的MMRefine基准测试揭示,即使是GPT-4O等顶级模型也只能成功修正约23%的错误答案,而且经常将正确答案改错。研究发现不同模型在处理六种错误类型时表现差异巨大,特别是小型模型在空间推理修正上竟然超越了大型模型,颠覆了"越大越好"的认知。