情况分析: 西门子试图解决什么问题?
工业领域面临着多个挑战,包括安保和安全法规、环境可持续性以及技术专家短缺等等。 西门子首席技术官兼首席战略官 Peter Koerte 表示,西门子公司的目标是利用人工智能解决其中的许多问题。
他告诉记者,“人工智能在工业应用场景中最重要的是必须安全、可靠且值得信赖。”西门子在人工智能领域的投资已有约 50 年的历史,提供的多种工业人工智能产品可以帮助汽车和航空航天等行业的制造商利用数据分析预测维护需求、提升员工生产力。
Koerte 表示,“我们相信,如果我们能够从现实世界获取数据,并在数字世界中模拟这些数据,理解这些数据,我们就能更快地为客户提供服务,因此我们的客户就更加具有竞争力、更具韧性和可持续性。”
关键员工和利益攸关者
Koerte表示,西门子在开发旗下的工业人工智能产品和服务方面与许多技术合作伙伴进行合作,包括谷歌、微软、英伟达、亚马逊网络服务和Meta。西门子公司约有1500名具备人工智能专业知识的员工,他们与这些科技公司密切合作,同时西门子的内部产品开发团队也参与其中。
人工智能实践
西门子的工业人工智能工作的重点是预测性维护、辅助工人的技术以及生成式产品设计。
其中的一个产品是 Senseye 预测维护工具,这个工具可以与制造商的数据源进行整合并利用人工智能分析信息。西门子表示,Senseye 预测维护平台可以提供有关机械、工具和其他基础设施运行状况的洞察。Senseye 预测维护技术还可以帮助预测维护问题,从而提高生产力,并帮助客户公司加快在业务中采用技术的步伐。
西门子首席技术官兼首席战略官 Peter Koerte (图:西门子)
西门子不久前首次推出了一款面向工业环境中工程师的人工智能生成式助手,名为 Industrial Copilot。该助手可以自动生成代码、快速识别问题并提供建议,支持设备维护的故障排除等工程任务。西门子表示,该工具可以提升“人机协作”,帮助解决企业在保持竞争力的同时解决劳动力短缺问题。
Koerte 表示,Industrial Copilot 可以在设备或软件出现问题时通知员工,收到通知的员工可以使用任何语言的口头命令创建工单,工单会自动发送给其他国家的团队,以便采取行动解决问题。他表示,“人工智能打破了障碍,使许多技术可以平民化,因为我们简化了这些技术的复杂性。”
有效吗?领导怎么知道呢?
西门子发现,使用 Senseye 预测维护平台的公司的维护成本降低了 40%,维护人员的工作效率提高了 55%,机器因维护无法使用的时间减少了 50%。
澳大利亚钢铁公司 BlueScope 在2021年实施了预测性维护平台,目的是最大限度地减少各工厂的停机时间、增加运营时长、加快产品生产速度并降低成本。Senseye 和 BlueScope 的物联网传感器合在一起能够及早检测设备的异常振动,从而预防维护问题的出现,为公司节省成本。
德国汽车和工业供应商 Schaeffler 集团在旗下的一款生产设备上整合了 Industrial Copilot。 现在,Schaeffler 集团的工程师能够更快地为可编程逻辑控制器(控制机器的设备)生成代码。 西门子表示,这项技术正在帮助 Schaeffler 集团实现重复性工作的自动化,减少错误,并将工程师解放出来从事“更高价值的工作”。
下一步是什么?
Koerte 表示,西门子将继续研究和开发新的人工智能应用案例。
西门子正在开展的一个项目将一些诸如模型和数字图纸等计算机辅助设计数据输送给大语言模型,并提供相应的提示词让大语言模型创建各种产品。
该项目仍处于早期开发阶段,但 Koerte 表示,这个项目可以使设计工程师(尤其是汽车行业的设计工程师)创造出更多的变种产品,并更快地生产出质量更高的产品。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。