JFrog携手Qwak打造安全的MLOps工作流,加速AI应用程序批量化交付

JFrog近日宣布与全托管机器学习(ML)平台Qwak进行全新技术整合,将机器学习模型与传统软件开发流程相结合,以简化、加速和扩展ML应用的安全交付。

全新原生集成助力企业借助端到端软件供应链的可视性、治理和安全性,高效地交付 ML 应用程序

2024年3月5日  —— 流式软件公司、 JFrog 软件供应链平台的缔造者JFrog (纳斯达克股票代码:FROG),近日宣布与全托管机器学习(ML)平台Qwak进行全新技术整合,将机器学习模型与传统软件开发流程相结合,以简化、加速和扩展ML应用的安全交付。

JFrog战略执行副总裁Gal Marder表示:“目前,数据科学家和ML工程师正在使用大量不同的工具来发布成熟的模型,而这些工具大多与企业内的标准 DevOps 流程脱节。这不仅拖慢了MLOps流程,有损安全性,还增加了构建AI应用的成本。以Artifactory和Xray为核心的JFrog平台与Qwak的结合为用户提供了一个完整的MLSecOps解决方案,使ML模型与其他软件开发流程保持一致,为工程、MLOps、DevOps和DevSecOps团队的所有软件组件创建了一个单一事实来源,从而使其能够以最低的风险和更低的成本,更快速地构建和发布AI应用。”

将 JFrog Artifactory 和 Xray 与 Qwak 的 ML平台相结合,将 ML 应用程序与现代化 DevSecOps 和 MLOps 工作流中的其他所有软件开发组件结合在一起,使数据科学家、ML 工程师、开发人员、安全人员和 DevOps 团队能够轻松、快速、安全地构建 ML 应用程序,并遵守所有监管准则。原生 Artifactory 集成将 JFrog 的通用 ML 模型注册表与集中式 MLOps 平台相连接,使用户能够轻松地构建、训练和部署模型,并提高可视性、治理、版本管理和安全性。使用集中式平台部署 ML 模型,还能让用户减少对基础设施的关注,从而专注于核心数据科学任务。

IDC 的研究表明,虽然越来越多的用户在使用AI/ML,但要想大规模地实现AI/ML 的全部优势,主要面临三方面的障碍因素:实施和训练模型的成本,专业人才的短缺,以及AI/ML 缺乏统一的软件开发生命周期流程。

JFrog软件开发、DevOps 和 DevSecOps 项目副总裁 Jim Mercer 表示:“对于希望扩展自身 MLOps 能力的企业来说,构建 ML 管道可能是一件复杂、耗时且成本高昂的工作。这些自行构建的解决方案不具备管理和保护大规模构建、训练和调整 ML 模型过程的能力,而且几乎不具备可采纳性。拥有一个有助于自动化开发的单一记录系统,提供有据可查的出处链,并确保 ML 模型与所有其他软件组件的安全性,为优化 ML 流程提供了一个值得信赖的替代方案,同时提升了模型安全性和合规性。”

如果不具备ML运维(MLOps)所需的正确的基础设施、平台和流程,在构建、管理和扩展复杂的ML基础设施,快速部署模型,并在避免高额费用的情况下确保模型的安全将会变得极为困难。基础设施的复杂性往往为企业带来管理层面的挑战,从而导致各种开发环境之间的身份验证和安全协议成本高昂且耗时。

Qwak 首席执行官 Alon Lev 表示:“如今,AI和 ML 已从遥远的未来转变为无处不在的现实。构建ML 模型是一个复杂而耗时的过程,因此对于许多数据科学家而言,将自己的想法转化为可投入生产的模型并不容易。 虽然市场上有很多开源工具,但将所有这些工具组合在一起构建一个全面的 ML 管道并非易事,因此我们很高兴能与 JFrog 合作开发解决方案,使客户能够像使用 JFrog Artifactory 和 Xray 一样安全地管理软件供应链,实现 ML 制品和发布的自动化。”

JFrog安全研究团队在广泛使用的AI模型库Hugging Face中发现了恶意ML模型,这进一步证实了安全的端到端MLOps流程势在必行。他们的研究发现,Hugging Face 中的多个恶意 ML 模型带来了威胁行为者执行代码的隐患,这可能导致数据泄露、系统受损或其他恶意行为。

来源:业界供稿

0赞

好文章,需要你的鼓励

2024

03/06

10:14

分享

点赞

邮件订阅