企业IT管理解决方案领军企业Zoho集团旗下子公司ManageEngine日前宣布,其统一服务管理与运维管理平台正式与DeepSeek实现深度整合。此项发布标志着该公司为中国企业提供情境化智能AI能力、提升IT管理体验的重要里程碑。
随着IT环境日益复杂且需求不断演变,中国IT团队正面临加速响应、减少停机时间及控制成本的巨大压力。针对这些挑战,企业对AI驱动运维的关注度空前高涨。据Gartner预测:“到2028年,33%的企业软件将包含代理型AI,而2024年的这一比例还不到1%。”这预示着行业正向智能自动化系统深度转型。
ManageEngine中国首席运营官李飞表示:“中国正引领AI应用浪潮,ManageEngine与DeepSeek的整合彰显了我们致力于为中国本土企业提供贴合其独特需求的解决方案的决心。我们不仅对产品进行本地化适配,更着力打造具备思考、学习与响应能力的AI功能,使其能以中国客户习惯的方式运作,助力企业化被动为主动,实现AI驱动的智能运维。”
借助DeepSeek推进统一服务与运维管理升级
ManageEngine全球副总裁 Mathivanan Venkatachalam指出:“ManageEngine的征程始于IT工作流自动化。如今我们正致力于构建具备自我修复、自我优化与自我防护能力的智能自主系统。此次与DeepSeek的整合,是我们迈向 AI 赋能转型的关键一步,将助力中国企业简化IT管理流程,并加速数字化成熟度提升。”
此次整合强化了ManageEngine构建AI驱动型IT环境的愿景,使其在 IT 服务与运维管理领域实现无缝协作。通过将DeepSeek的自然语言处理能力引入ServiceDesk Plus,中国IT团队现可借助中文自然语言聊天机器人,根据用户提问快速完成工单分类与解决,显著提升处理效率。这些增强功能同样延伸至运维领域:在Site24x7中,DeepSeek通过自动警报分组与分析功能,快速定位问题根源,优化警报管理流程。
拓展 AI 功能,覆盖多元 IT 领域
在ManageEngine生态系统中,AI已成为助力企业大规模提升可靠性与安全性的基石。从通过用户与实体行为分析识别日志模式异常,到借助新一代防病毒功能强化终端防护,ManageEngine的AI功能持续助力企业提前发现风险并减少运维盲区。此外,自适应阈值(adaptive thresholds)以及基于依赖关系的组织结构图影响关联分析(dependency-based impact correlation),可在故障或性能问题期间减少误报,并提供更具情境化的洞察。
南京泉峰科技有限公司技术支持工程师王丽艳表示:“自适应阈值通过历史数据自动计算限值,为我们节省了大量时间。采用基准阈值后,相较纯自适应模式,警报准确性与稳定性显著提升。我们期待未来能够在接口利用率方面看到更多自适应支持。”
此次集成的共享智能可惠及服务管理、运维管理及网络安全等多元领域,助力企业加速响应、优化决策,构建更具韧性的数字基础设施。
以更智能、灵活的 AI 赋能中国企业
随着卓豪自有大语言模型 Zia 与 DeepSeek 同时可用,中国客户现可根据语言环境、合规要求及数据驻留需求选择最适配的AI框架。这种双AI框架不仅提供灵活部署方案,更支持负责任的AI应用,使企业能够完全掌控数据主权。
ManageEngine持续深化在中国的AI布局,依托北京与上海的数据中心,全面遵循国家网络安全及数据隐私标准。公司始终致力于提供契合中国快速演进的企业技术生态的AI解决方案,满足市场对负责任、以人为本的AI创新日益增长的需求。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。