2024年10月9日,可信的数据、分析和AI混合平台厂商肯睿Cloudera今天发布了由NVIDIA NIM微服务驱动的肯睿Cloudera AI推理服务,该服务同时成为NVIDIA AI Enterprise平台的一部分。作为业界首批提供嵌入式 NIM微服务功能的AI推理服务之一,肯睿Cloudera AI推理服务以独特方式简化了大规模AI模型的部署与管理,使企业能够发挥出其数据的真正潜力,将生成式AI从试点阶段推进到全面生产阶段。
根据德勤最新数据显示,企业采用生成式AI的最大障碍是合规风险和治理问题。尽管如此,生成式AI仍在快速普及,今年第三季度有超过三分之二的企业增加了生成式AI预算。为了缓解上述问题,无论在本地,还是在公有云中,企业都必须转向私有AI模型和应用。为此,企业需要安全、可扩展的解决方案来避免复杂的自行解决方法。
肯睿Cloudera AI推理服务通过在企业控制范围内提供安全开发与部署,防止敏感数据泄露到云服务商托管的非私有AI模型服务中。这项NVIDIA技术驱动的服务帮助企业快速构建实现可信AI所需的可信数据,支持企业高效开发AI驱动的聊天机器人、虚拟助手和代理应用,从而提升生产力并实现业务增长。
肯睿Cloudera在与NVIDIA合作后不久就推出了肯睿Cloudera AI推理服务,进一步强调了肯睿Cloudera的承诺,即在各行各业应对数字化转型与AI集成复杂性的关键时刻,不断推动企业AI创新。
开发者可以使用NVIDIA Tensor Core GPU构建、定制和部署企业级大语言模型(LLM) ,其性能最高可提升36倍,吞吐量是使用CPU时的近4倍。用户界面(UI)和API可与NVIDIA NIM微服务容器直接集成,不再需要使用命令行界面(CLI)和单独的监控系统,为用户带来了无缝衔接体验。该服务与肯睿Cloudera AI模型注册表集成后,还可通过管理模型端点和操作的访问控制改善安全性和治理。用户能够在一个统一平台上通过一项服务无缝管理所有模型,无论是LLM部署,还是传统模型都不例外。
肯睿Cloudera AI推理服务的其他主要功能包括:
· 高级AI功能:利用NVIDIA NIM微服务优化开源LLM(包括LLama和Mistral),推动自然语言处理(NLP)、计算机视觉和其他AI领域的前沿技术发展。
· 混合云与隐私:在本地或云中运行工作负载,通过VPC部署增强安全性与合规性。
· 可扩展性与监控:依靠自动扩展、高可用性(HA)和实时性能追踪检测和纠正问题,实现高效资源管理。
· 开放式 API与CI/CD集成:使用符合标准的API进行模型部署、管理和监控,以便与 CI/CD流水线和MLOps工作流程无缝集成。
· 企业安全功能:通过服务帐户、访问控制、数据沿袭和审计功能执行模型访问。
· 风险管理部署:通过A/B测试和“金丝雀推广”(canary rollout)以控制模型更新。
行业分析师Sanjeev Mohan表示:“企业正对投资生成式AI热情高涨,但这不仅需要可扩展的数据,还需要安全、合规且管理良好的数据。将私有AI大规模投入生产带来了DIY方法难以解决的复杂性。肯睿Cloudera AI推理服务通过将先进的数据管理与NVIDIA的AI专业技术相结合弥补了这一差距,在保护数据的同时发挥数据潜能。凭借服务帐户、访问控制、审计等企业级安全功能,企业可以放心地保护自己的数据,并在本地或云中运行工作负载。以其所需的灵活性和治理方式高效部署AI模型。”
肯睿Cloudera首席产品官Dipto Chakravarty表示:“我们十分高兴能与NVIDIA携手推出肯睿Cloudera AI推理服务,为客户提供一个支持几乎所有模型和用例的一站式AI/ML平台。如此一来,企业既可以使用我们的软件创建强大的AI应用,也可以在肯睿Cloudera平台中运行性能卓越的AI应用。通过集成NVIDIA AI,肯睿Cloudera能够以先进的性能促进决策的智能化,使用可信数据大规模构建可信的AI应用,从而支持客户不断创新。”
NVIDIA AI软件、模型和服务副总裁Kari Briski表示: “当今企业需要将生成式AI与其现有的数据基础设施无缝集成,从而提升业务成果。通过将NVIDIA NIM微服务整合到肯睿Cloudera AI 推理服务平台中,我们支持开发者能够轻松创建可信的生成式AI应用,同时形成一个自我维持的AI数据飞轮。”
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。