科技的快速发展正在重塑亚太地区各行各业。到2025年,企业将面临新兴威胁和机遇并存的复杂环境。要在这个充满变化的环境中保持领先,企业必须把数字韧性、安全和创新放在首位。
云原生可观测性:数字韧性的基石
目前,云原生环境用户往往因为缺乏对基础设施和应用程序堆栈的端到端可见性,难以快速发现和解决问题,进而影响了服务的可靠性和可用性。预计到2025年,用户会更加重视云原生可观测性,以便在混合云和多云环境中实时查看和关联从基础设施到应用的各类事件和指标。这将帮助他们分析整个IT环境的数据,在问题升级为事故前及时发现异常和潜在问题。
提升应对系统中断的数字韧性
2024年,我们见证了多起区域性和全球性的重大技术中断事件,比如Crowdstrike的全球服务中断。这种中断趋势还将持续,继而促使企业制定IT策略来应对、适应以及从类似中断中恢复,具体策略包括:通过多样化IT架构来降低软件集中度和供应商锁定风险,建立备用技术栈以应对故障转移,采用多供应商方案,为操作系统和Kubernetes等关键基础设施软件提供更多选择等。
零信任安全:抵御勒索软件的防护盾
2024年,勒索软件攻击急剧增加,随着不法分子使用AI进行更复杂的攻击,这一趋势预计还将持续。勒索软件即服务(RaaS)的存在加剧了这一情况。到2025年,预计将有更多公司投资零信任安全解决方案,以检测和防止勒索软件及其他零日漏洞攻击。
安全和私密的生成式AI:负责任地推动创新
采用AI技术的公司面临众多安全挑战,包括生成式AI的隐私和数据保护问题,以及AI供应链中的漏洞。为应对这些风险,私有AI平台的采用将会增加。这些平台使企业能够完全掌控其数据,保护其运营免受未经授权的数据共享、合规性风险以及“影子AI”滥用等日益增多的威胁。
AI可观测性:优化性能并减少碳足迹
AI,尤其是大型语言模型,运行所需的大量能耗会对碳排放产生显著影响。为了优化AI工作负载的能耗并减少碳排放,企业将在未来几年采用多种策略,包括:微调和优化大型语言模型,消除其性能瓶颈,选择高能效云服务供应商,负责任地扩展AI资源。可观测性工具将有助于推动并指导这些工作。
人工智能的标准操作环境:推动效率与创新
如今,有多种选项可运行生成式AI和其他类型的AI工作负载。随着时间的推移,我们预计大多数企业会为AI用例创建一个标准操作环境。环境将包含一个高度可扩展的通用AI平台,并提供AI工作负载所需的通用模块和服务,如:精心挑选的大型语言模型(LLM)、数据隐私与安全、可观测性等。标准操作环境还确保了一致的治理、有效的工作流程和优化的资源使用,从而有助于减少碳排放。
综上,2025年及以后,注重数字韧性、安全和创新的企业将能够更好地抓住新兴机遇,从容应对数字时代的各种挑战。
好文章,需要你的鼓励
这期是技术加情怀了。极少数人基于热情和对卓越的执念,构建了数十亿人每天依赖但普通人从不知晓的基础设施。
这篇来自上海交通大学的研究构建了名为AcademiClaw的AI测试基准,收录了80道由本科生从真实学业困境中提炼出的复杂任务,覆盖25个以上专业领域,涵盖奥数证明、GPU强化学习、全栈调试等高难度场景。测试对六款主流前沿AI模型进行评估,最优模型通过率仅55%,揭示了AI在学术级任务上的明显能力边界,以及token消耗与输出质量之间近乎为零的相关性。
Antigravity A1无人机推出"大春季更新",新增AI智能剪辑、语音助手、延时摄影模式及升级版全向避障系统。用户可通过语音命令控制Sky Genie、深度追踪等核心功能,虚拟驾驶舱支持第三人称视角飞行。随着产品进入墨西哥市场,Antigravity全球覆盖已近60个国家,持续推动无人机向更智能、更易用方向发展。
Meta AI安全团队于2026年5月发布了代码世界模型(CWM)的预发布安全评估报告(arXiv:2605.00932v1)。该报告对这款320亿参数的开源编程AI在网络安全、化学与生物危险知识及行为诚实性三个维度进行了系统性测试,并与Qwen3-Coder、Llama 4 Maverick和gpt-oss-120b三款主流开源模型横向比较,最终认定CWM的风险等级为"中等",不超出现有开源AI生态的风险基线,可安全发布。