JFrog将不断扩展解决方案,为企业带来先进的MLOps功能,使其能够在一个统一的平台上构建、部署、管理和监测包括生成式AI、大语言模型(LLMs)和常规机器学习模型在内的AI工作流。
2024年7月1日 —— 流式软件公司、JFrog 软件供应链平台的缔造者JFrog(纳斯达克股票代码:FROG)近日宣布,公司已就收购AI和MLOps平台创建者Qwak AI达成最终协议。
通过此次收购,JFrog旨在为 DevOps、安全和 MLOps 利益相关者提供统一、可扩展的解决方案。这一业界领先的先进 MLOps 功能旨在让数据科学家和开发人员摆脱基础设施问题的束缚,加速创建和交付AI驱动型应用程序。JFrog 是所有软件包(二进制文件)的单一记录系统,其中包括存储在 Artifactory 中的模型。增强其机器学习(ML)模型功能将进一步使用户能够简化模型从开发到部署的全过程。
JFrog 首席执行官兼联合创始人 Shlomi Ben Haim 表示:“下一代软件供应链平台需要扩展并原生包含 MLOps 解决方案,以便更好地服务于开发组织。我们很高兴能将 Qwak 的 MLOps 解决方案整合到我们的平台中,赋能客户的AI之旅。Qwak的解决方案由JFrog Artifactory作为首选模型注册中心,JFrog Xray用于扫描和保护ML模型,持续致力于为用户提高效率,并为DevOps、DevSecOps、MLOps和MLSecOps提供统一的平台体验。我们期待着与 Qwak 的团队携手,共创辉煌!”
作为JFrog平台的一部分,Qwak技术将为模型的投产流程带来一种直观、简便的用户体验,也确保了企业在部署AI驱动应用时所期待的高信任度和可追溯性。而之所以能够做到以上两者兼顾,正是利用了Qwak先进的模型训练和服务能力,从而实现对独立且复杂的模型生命周期的管理,同时结合了JFrog提供的模型存储管理和安全扫描服务。
在此次收购之前,JFrog 和 Qwak 已于今年早些时候成功整合解决方案,该整合基于 JFrog 的“模型即软件包(model as a package)”方法。这项整体解决方案旨在消除对单独工具的需求,简化合规工作,通过单一解决方案实现全面的可追溯性。
Qwak 首席执行官兼联合创始人 Alon Lev 表示:“我们非常高兴能够加入 JFrog 大家庭,并帮助客户加速其AI计划。我们创立 Qwak 的愿景是改变软件开发团队和数据科学家共同将AI资产投入生产的方式。借助 JFrog 软件供应链平台的力量,实现大规模的交付安全软件组件,我们正在创造一种全新的体验,致力于为统一的数字交付团队铺平道路,使他们能够以更简单、更可预测的方式将负责任的、安全的模型引入其应用程序。”
随着企业开始交付AI驱动的应用,ML模型作为AI背后的驱动力,实现其快速上市和安全流动是现代 MLOps 计划背后的关键因素。根据 Gartner的数据,MLOps 在AI运营中发挥着至关重要的作用,预计至 2024 年底,75% 的公司将从AI试点转向运营。
JFrog 战略执行副总裁 Gal Marder 表示:“数据科学家和ML工程师目前使用的工具大多与公司内部的标准 DevOps 和安全流程脱节,从而延误了发布时间并削弱了信任。跨开发、安全、机器学习和运营的统一记录系统将为数字团队和企业解决这一痛点。”
如今的市场需要一个跨软件供应链的统一平台体验,以加速开发流程,并针对ML模型和元数据等AI关键驱动力实现相应地处理。与其他软件组件一样,ML模型必须进行存储、构建、追踪、版本控制、签名、安全保护和跨系统高效交付,以便大规模交付AI应用。在统一的解决方案中利用 DevOps 实践可以满足这些市场期望。
对Qwak的收购将通过以下功能扩展 JFrog 解决方案:
JFrog 的 MLOps 发展计划
作为收购和整合进程的一部分,JFrog 计划将 Qwak 的人才吸收到 JFrog团队中,迅速壮大以 MLOps 为中心的团队。JFrog 还将加快技术整合进程,将 Qwak 技术引入 JFrog 平台,贯穿 JFrog DevOps 和安全产品。JFrog 和 Qwak 将与客户紧密合作,确保业务连续性,并顺利过渡到未来联合开发和支持的产品。
MLOps生态系统与合作伙伴集成
今年早些时候,JFrog 宣布与 AWS Sagemaker和 DataBricks 开发的 MLflow 进行集成。作为公司追求实现通用性的途径之一,JFrog 将继续与其他领先的 MLOps 生态系统合作伙伴提供集成,为开发人员和ML工程师提供更大的自由选择空间,避免供应商锁定的风险。
好文章,需要你的鼓励
文章详细介绍了Character.AI这款主要面向娱乐、角色扮演和互动叙事的AI聊天工具的原理、用户群体、特色功能以及面临的法律与伦理争议,同时揭示了其新推出的视频和游戏互动体验。
上海人工智能实验室研究团队开发了MMSI-Bench,这是首个专注于多图像空间智能评估的全面基准。研究人员花费300多小时,从12万张图像中精心构建了1000道问题,涵盖了位置关系、属性和运动等多种空间推理任务。评测结果显示,即使最先进的AI模型也仅达到41%的准确率,远低于人类的97%,揭示了AI空间认知能力的重大缺陷。研究还识别了四类主要错误:物体识别错误、场景重建错误、情境转换错误和空间逻辑错误,为未来改进提供了明确方向。
思科报告指出,自主型人工智能未来三年内有望承担高达68%的客户服务任务,通过个性化与前瞻性支持提升效率与节省成本,但用户仍重视人与人之间的互动和健全的治理机制。
卡内基梅隆大学研究团队开发了ViGoRL系统,通过视觉定位强化学习显著提升AI的视觉推理能力。该方法让模型将每个推理步骤明确锚定到图像的特定坐标,模拟人类注视点转移的认知过程。与传统方法相比,ViGoRL在SAT-2、BLINK等多项视觉理解基准上取得显著提升,并能动态放大关注区域进行细节分析。这种定位推理不仅提高了准确性,还增强了模型解释性,为更透明的AI视觉系统铺平道路。