“AI一天,人间一年”,道出了AI技术在过去一年中的飞速进步。Gartner预测,2025年全球生成式人工智能(GenAI)支出将达到 6440 亿美元,较2024年增长76.4%。
现在,AI技术正在经历一场前所未有的"大分化"时代。微软中国首席技术官韦青观察到,人工智能技术就像毛细血管般分型裂变成各种细微的路下,就像大模型,参数设置差之毫厘,结果却能相差千里。这种演化轨迹与人类语言的进化惊人相似,在几千年的演变过程中渐分化为当代常用的数十种现代语言,这次差异恰恰构成了各自独特的价值。
同时我们也在见证AI领域技术光谱的形成,从云端到边缘、开源到闭源、大模型到小模型……这些问题正困扰着全球数以万计的企业决策者,站在AI转型的十字路口,企业必须快速作出决策,因为错失技术机会,可能意味着在未来市场竞争中落后一步。
企业该如何做出选择?“各种技术路线看似对立,实则共同编织着智能时代的全景图。”正如至顶科技CEO高飞所言,我们究竟应该坚持非此即彼的二分法,还是寻求更高级的辩证统一。
2025年4月23日,微软创想未来峰会上将开启一场主题为“向左走、向右走 解码企业智能化转型之路”的深度对话,韦青与高飞将围绕企业在AI实施过程中面临的迷思展开对话,帮助企业厘清当前技术的复杂性,为决策者提供可行的决策指南。
开源与闭源:安全与创新的平衡
在开源与闭源的技术选择上,当前更多是“安全性”与“创新速度”的取舍。开源模型让企业能够快速搭建原型,降低初期投入,但随之而来的安全隐患和技术不确定性,也让许多企业心存疑虑。微软是如何帮助企业应在商业化和技术开发之间找到一个中间地带,以应对不断变化的市场需求。
大模型与小模型:性能与成本的博弈
大模型和小模型的选择一直是AI落地中的热点话题。虽然大模型的强大性能在很多场景中无可替代,但它们对硬件资源和专业场景的需求,使得许多企业在实际部署时却陷入了困境。小模型的灵活性和低成本优势让它在一些特定领域脱颖而出。企业应如何根据自身业务需求做出最明智的技术选择,微软在满足客户多样化需求时有哪些做法。
云端与本地:技术架构的深度博弈
随着数据隐私和安全的日益重要,越来越多的企业开始倾向本地化部署,这样能最大程度地掌控数据。然而,云端部署凭借其灵活性、可扩展性和便捷性,依然是许多企业的首选。云端与本地化部署各有千秋,如何在数据安全、运维成本、架构灵活性等方面做出平衡,成了企业在数字化转型过程中最大的挑战。微软是如何通过技术创新和服务能力,帮助客户构建既安全又高效的部署方案,确保数据安全的同时提升业务效率
从RAG到智能体:AI应用的新变革
从RAG(检索增强生成)到Agent技术,AI圈子的话题更替速度明显变快,它们的本质都是让模型与企业自身的数据、工作流进行连接与交互。企业将如何应用两者带来业务价值?同时微软是如何通过智能Copilot副驾驶®实现跨产品线协同工作,从而推动用户生产力和决策效率的提升。
在这个技术范式快速裂变的时代,企业真正需要的不是放之四海皆准的"标准答案",而是能够持续校准的"战略导航"。对话将帮助决策者在技术变革的迷雾中,既把握当下机遇,又锚定长期方向,在AI竞赛中赢得战略主动权。
2025年4月23日,下午16:30-17:00,微软创想未来峰会主会场“创想未来坊”,我们邀您加入 "向左走、向右走 解码企业智能化转型之路" 的思辨现场,与行业领袖直面AI浪潮中的关键抉择,在碰撞中预见未来。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。