近日,西门子智能基础设施(Siemens Smart Infrastructure,SI)已经签署协议收购美国领先的资产和维护管理解决方案软件即服务(SaaS)提供商Brightly Software,此次收购将有助于SI在建筑和基础设施软件市场占据领先地位。收购价格为15.75亿美金,外加一项获利能力付款条款。
此次收购将把Brightly在教育、公共基础设施、医疗保健和制造等关键领域的成熟云计算能力,纳入到西门子在建筑领域的数字和软件专业知识中,还将加速西门子SaaS业务的成长,让西门子和Brightly能够共同为建筑基础设施提供卓越的性能和可持续性。Brightly也将从西门子的全球业务中受益,而西门子则会利用Brightly在美国市场的影响力,实现Brightly的能力与西门子自身产品组合之间显着的协同效应,预计净现值将达到数百万美元。该交易尚需获得监管部门的批准,预计将于2022年完成,次年实现PPA之前的每股收益增值。
“我们作为一家专注于技术的企业,这次收购是又一重要步骤。通过现实世界和数字世界的结合,我们将为客户提供推动数字化转型所需的技术,以打造最具可持续性和以人为本的建筑。这次收购将为我们实现增长目标提供支持,尤其是在数字收入和软件即服务方面。热烈欢迎Brightly加入西门子大家庭,我们感到自豪和兴奋,”西门子公司总裁、首席执行官Roland Busch这样表示。
基础设施所有者和运营商们正在寻求支持更高效、可持续运营的软件。Brightly具有完善的SaaS业务和客户群,结合西门子现有的楼宇基础和数字产品组合,将通过IT和OT的融合,促进数据集成,支持创新、独特的用户体验、楼宇和已建成基础设施的优化性能。
西门子管理董事会成员、西门子智能基础设施首席执行官Matthias Rebellius表示:“Brightly将使我们能够在建筑性能水平上实现跨越,达到一个新的高度。通过我们双方产品之间的无缝数据交换,客户可以期待获得更高的效率、更短的停机时间、更低的维护成、缩短的生命周期、更好的数据驱动决策和更满意的租户体验。此次收购将加快我们成为基础设施领域领先的软件公司,并支持我们打造可持续学习以满足租户需求的、完全自主化的建筑这一愿景。”
据估计,到2050年,将有70亿人口生活在城市地区,再加上应对气候变化的紧迫性,都推高了对于智能、可持续社区和基础设施的需求。西门子致力于通过数字化和智能系统构建智能社区,西门子的解决方案、服务和软件将现实世界和数字世界、IT和OT的连接,为运营已建成的基础设施注入智能化。
Brightly预计到2022年将实现约1.8亿美金的收入,2022年预期年度经常性收入(ARR)为1.6亿美金,所在的市场领域复合年增长率预计可达到13%。Brightly总部位于美国北卡罗来纳州卡里,有约800名员工,为约12000家客户提供服务,客户主要分布在美国、加拿大、英国和澳大利亚。自2019年以来,该公司一直由私募股权公司Clearlake Capital所有。
Brightly公司首席执行官Kevin Kemmerer表示:“随着数字化转型和可持续发展被提上日程,加上充满挑战的监管环境,企业组织对互联资产和实时资产数据的需求,正在推高全球范围内对智能资产管理解决方案的需求。我们看到了一个难得的机会,可以将我们的知识和软件与西门子相结合,加速建筑环境的数字化和优化,帮助客户评估和管理他们的集体资产,制定短期和长期资本计划,管理能源和ESG目标。我们双方拥有丰富的经验,可以帮助世界各地的客户改变他们的资产性能,打造安全、可持续和繁荣的社区。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。