与所有汽车制造商一样,福特汽车当下正积极推进一场意义深远的数字化转型变革。
在本届SC24大会上,福特汽车产品开发全球数字化转型主管David Kepczynski介绍了高性能计算、GPU加速和AI/机器学习将如何重塑该公司在安全、性能以及联网汽车等各个领域的运营方式。
事实上,我们很难找到一位比Kepczynski更熟悉百亿亿次级超算技术以及高性能计算的工业应用等主题的演讲者了。在加入福特汽车之前,Kepczynski曾在通用电气公司担任长达十年的企业数字技术与研究首席信息官,主要负责监督医疗保健、能源及航空航天等行业的大型计算系统开发。在此之前,他还在通用汽车公司工作过20年,先后担任全球数字工程、产品开发以及制造方面的领导职务。
Kepczynski也曾出任美国能源部百亿亿次计算项目行业与机构委员会的联席主席。这段经历让他得以亲眼目睹高性能计算如何一步步演变成我们如今所见的样子——即混合了针对AI及/或传统高性能计算进行调整的大规模GPU加速系统,以及支撑起此等计算规模所必需的全部软件流程。
Kepczynski在SC24大会的舞台上表示,福特的高性能计算系统日常为公司2000名计算机辅助工程师们进行建模与模拟(主要是CFD,即计算流体动力学模拟)。遗憾的是,他并未具体介绍福特高性能计算环境的更多架构细节。
在回答来自博通的参会者关于本地与云高性能计算的问题时,Kepczynski解释称,福特主要依靠本地系统运行建模及模拟类工作负载。当然,过往与亚马逊云科技和Azure等超大规模云服务商的实验合作,也证明了混合方案的出色灵活性。
Kepczynski解释道,计算资源主要被均等分配给车辆耐撞性、空气动力性能以及汽车联网分析等项目之间。他同时做出预测,认为未来几年AI/机器学习类工作负载将大幅增加,特别是在联网汽车领域,预计实时分析将在其中占据主导。“我们预计机器学习在某些领域将占用高达90%的计算周期。”
虽然关于福特AI开发方式及演进方向的讨论还有很多,但他强调,传统高性能计算仍然支撑着汽车开发工作中的方方面面。例如在安全领域,福特已经从孤立的碰撞模拟转向系统级方法,尝试将乘员与碰撞虚拟化为统一模型当中相互关联的组件。“我们不再仅仅孤立地考虑车辆耐撞性,而是着手运用高性能计算将结构、机械和软件系统集成起来,提供可提高首次测试质量并有助于加快测试速度的现实成果。”
“这不仅仅是要改造我们的车辆,更是在颠覆我们整个汽车行业的思维、设计与创新方式。”
性能优化也遵循同样面向系统的理念。除了长久以来作为行业关注焦点的空气动力学之外,福特的工程师们现在还运用高性能计算将系统及NVH(噪音、振动与声振粗糙度)等特性集成到全面的车辆模拟当中。这种整体方法由基于物理定律的先进建模提供支持,使得企业能够微调车辆性能中的各个方面。Kepczynski强调称,“我们已经超越了传统的组件级分析。借助高性能计算,我们开始分析整个系统,将数据、模型与计算能力结合起来,最终实现前所未有的模拟保真度。”
高性能计算、AI/机器学习以及GPU加速的相互融合,正在我们最期待的领域发挥作用——这就是联网汽车。Kepczynski介绍了福特如何将每辆汽车视为物联网平台,借此将传感器数据同实时分析相结合,从而提高性能与可靠性。他表示,这些功能主要由GPU驱动的计算系统提供支持,可实现预测性维护以及动态性能调整等高级应用。Kepczynski指出,“在这个领域,GPU的作用至关重要。它们推动了大规模数据分析,也为我们的联网汽车战略奠定了基础。”
Kepczynski还重申了GPU的价值及其在百亿亿次计算中发挥的作用。“可编程GPU改变了一切。即使沿用原有的代码库,针对GPU的重构也同样能带来非凡的性能提升。”
如前所述,AI和机器学习已经成为福特方法论体系中不可或缺的组成部分,其实际应用也推动了生成式设计、预测分析与联网汽车等具体功能。
Kepczynski专门强调这并不是炒作,而是福特AI多年来专注于切实成果换来的回报。通过机器学习建立的代理模型被集成至设计工作流程当中,能够在不影响质量的前提下实现车型研发的快速迭代。
他总结道,“我们不只是在试验——我们是在运用这些技术提供真实可见的卓越成果。”
好文章,需要你的鼓励
一加正式推出AI功能Plus Mind和Mind Space,将率先在一加13和13R上线。Plus Mind可保存、建议、存储和搜索屏幕内容,并将信息整理到Mind Space应用中。该功能可通过专用按键或手势激活,能自动创建日历条目并提供AI搜索功能。一加还计划推出三阶段AI战略,包括集成大语言模型和个人助手功能,同时将推出AI语音转录、通话助手和照片优化等工具。
北航团队推出Easy Dataset框架,通过直观的图形界面和角色驱动的生成方法,让普通用户能够轻松将各种格式文档转换为高质量的AI训练数据。该工具集成了智能文档解析、混合分块策略和个性化问答生成功能,在金融领域实验中显著提升了AI模型的专业表现,同时保持通用能力。项目已开源并获得超过9000颗GitHub星标。
预计到2035年,数据中心用电需求将增长一倍以上,达到440TWh,相当于整个加利福尼亚州的用电量。AI工作负载预计将占2030年数据中心需求的50-70%。传统冷却系统电机存在功率浪费问题,通常在30-50%负载下运行时效率急剧下降。采用高效率曲线平坦的适配电机可显著降低冷却系统功耗,某大型数据中心通过优化电机配置减少了近4MW冷却功耗,为13500台AI服务器腾出空间,年增收入900万美元。
卢森堡计算机事件响应中心开发的VLAI系统,基于RoBERTa模型,能够通过阅读漏洞描述自动判断危险等级。该系统在60万个真实漏洞数据上训练,准确率达82.8%,已集成到实际安全服务中。研究采用开源方式,为网络安全专家提供快速漏洞风险评估工具,有效解决了官方评分发布前的安全决策难题。