ZD至顶网软件频道消息: 当微软在去年六月份宣布收购LinkedIn时,许多人都想知道微软是否将开发自己的人力资本管理(HCM)应用程序,或者何时会这样做。
人力资本管理与人力资源管理系统相关,但不是同一回事。人力资本管理更多地关注员工的专业成长,而不仅仅是人力资源管理系统通常处理的日常人力资源管理(人力资源管理)职能。
Dynamics 365中的操作模块目前包括从微软的Dynamics AX ERP中拿来的一些人力资源功能。但微软似乎并没有打算到此为止,从该公司的一名软件工程师1月5日在在该公司职业网站发布的博客文章上看,上该公司要建立专门针对人力资本管理的应用程序。
以下内容摘自这篇博客文章:
“Dynamics 365旨在重塑业务流程(https://www.linkedin.com/pulse/reinventing-business-processes-satya-nadella)。我们正在提供专用的SaaS应用程序,以快速中断和切换业务应用程序。我们的团队章程是创造下一代的Talent Engagement应用程序,帮助企业管理自己最重要的资产——人。我们正在构建应用程序,以解决从招聘到退休的一揽子需求。我们正在寻找有才华的网络和全栈开发人员以实现我们的愿景。我们的应用程序在网络和移动端上为严密聚焦场景提供了丰富的体验。”
微软官员们还没有表示该公司计划打造自己的人力资本管理应用程序。但是我在ZDNet同事Larry Dignan指出,该公司的首席执行官萨提亚.纳德拉曾在去年六月份表示,他认为人力资本管理软件“对我们来说是一个非常令人兴奋的机会”。
LinkedIn的首席执行官Jeff Weiner表示,在收购宣布之后,LinkedIn的招聘、学习和发展专注于包括招聘、管理、激励和领导员工——也被称为人力资本管理——“对于微软来说是一个巨大而全新的商机。”
在微软对LinkedIn的收购在去年年底得到正式批准并完成之后,微软官员并没有在直接优先事项中提到计划开发新的人力资本管理软件。微软的发言人昨天也告诉我,该公司拒绝评论微软将在何时或是否将建立和推出自己人力资本管理软件。
这位发言人指出Dynamics 365路径图页面中提到了一些目前正在开发的人力资本管理项目。但这些项目,包括新的员工和经理自助服务功能、额外现场支持和人力资源流程的新模板,对我来说,这些听起来更像是对已有的Dynamics 365 Operations的人力资源功能的扩展,而不是全新的应用程序。
当微软的官员谈论解决“整个需求从招聘到退休”一揽子问题或者这些应用程序可能在何时首次亮相时,我们不知道微软的计划包含了多少应用程序。
企业应用咨询负责人Joshua Greenbaum表示:“我完全希望微软能够利用LinkedIn开发下一代人才管理系统。这么做并且尽快做对他们来说意义非凡。”
他指出,现代的人力资本管理相关功能,如视情况而定的劳动力管理和采购、成功规划和协调资产管理不需要由LinkedIn提供,但可以利用LinkedIn数据,例如人脉网络/连接。
Greenbaum表示,他预计微软将保持LinkedIn API(应用程序编程接口)开放,以便其他人力资源管理供应商,如SAP的SuccessFactors和Workday能够继续使用它们。
Greenbaum补充道:“微软还可能开发一些基本的招聘到退休的功能,特别是针对中小型企业(SME),这些功能将站在Office和LinkedIn的肩膀之上。” Greenbaum 表示,“这将是有意义的,因为它将创建一个竞争对手/合作伙伴必须超越的功能基准,以增加价值超过微软,它会给微软一个自己的基准,以确保它用来‘中断’人力资源的不是一款模仿跟随他人的软件。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。