数据库巨头Oracle近日推出了Oracle Cloud Infrastructure Generative AI服务,发布的同时推出了各种创新技术,使大型企业能够利用生成式AI技术的最新成果。
这次推出的OCI Generative AI服务是一项全面管理的、云托管的产品,使企业能够利用强大的大型语言模型,例如Meta Platform的开源Llama 2和Cohere的专有算法,并与现有系统进行了集成,这样企业就能够对那些目前由人类执行的很多手动业务流程实施自动化。
据Oracle介绍,OCI Generative AI服务支持100多种语言,针对GPU提供了改进的集群管理体验,以及灵活的微调选项。
Oracle表示,这项新服务通过应用程序编程接口就可以调用这些模型,用于解决文本生成、摘要和语义相似性等任务。客户可以把生成式AI安全地嵌入到他们现有的技术堆栈中,并且带有严格的数据安全和治理协议。
Oracle在去年6月公布了OCI Generative AI服务,将其描述为微软Azure OpenAI服务的替代品,该服务允许客户部署大型语言模型,以对话方式响应人类的提示内容。
尽管Cohere的AI模型和Llama 2众所周知是非常强大的,但对于大多数企业来说并不是那么有用,除非它们可以利用内部数据进行增强和完善。为此,客户可以使用OCI Generative AI Agents服务,该服务允许他们使用自己的数据来增强大型语言模型的能力。
OCI Generative AI Agents目前已经投入Beta测试,它使用检索增强生成技术来微调生成式AI模型,以便模型可以提供更有用的、情境化的响应。该服务提供了对RAG代理的访问,后者利用基于OCI Open Search构建的企业搜索功能来帮助大型语言模型获取最新的信息,为他们的响应和预测提供信息。
尽管初始版本通过OCI OpenSearch支持RAG,但Oracle计划集成更广泛的数据搜索和聚合工具,包括Oracle Database 23c with AI Vector Search以及MySQL HeatWave with Vector Store,还将支持Oracle软件即服务应用套件中的预构建代理操作,包括Oracle Fusion Cloud Applications Suite、Oracle NetSuite和Oracle Cerner。
Oracle表示,OCI Generative AI服务目前已经在Oracle Cloud的多个区域上线了,客户也可以通过Oracle OCI Dedicated Region平台在本地访问。该服务还与Oracle基于云的业务应用组合进行了集成,包括Oracle Enterprise Resource Planning、Human Capital Management、Supply Chain Management以及Customer Experiences应用。此外,Oracle表示,这项生成式AI服务将通过Oracle的Autonomous Database Select AI功能进入到Oracle的数据库产品组合中。
在相关更新中Oracle表示,将对OCI Data Science平台的功能进行扩展,将在下个月的测试版中添加新的AI Quick Actions功能,为无代码访问各种开源大型语言模型铺平道路。该功能将帮助客户从Hugging Face的Transformers或者PyTorch开源库构建、训练、部署和管理大型语言模型。
OCI人工智能和数据管理高级副总裁Greg Pavlik表示,Oracle专注于使用生成式AI来解决现实世界的各种业务用例,并为更多企业采用该技术铺平道路。他说:“为了做到这一点,我们将生成式AI集成到我们的应用和融合数据库中,并提供新的大型语言模型和托管服务,将AI嵌入技术堆栈的所有层中。我们不是提供需要组装的工具包,而是提供一套强大的预构建的生成式AI服务和功能,这些服务和功能相互之间协同工作,帮助客户更智能、更快速地解决业务问题。”
Constellation Research副总裁、首席分析师Andy Thurai认为,这项新服务提供了基于API的访问,这对一些企业来说可能是有吸引力的,因为它在云端和本地环境中都可以访问,这有点不同寻常。不过,该服务也有一些局限性,特别是它只支持Cohere和Meta Llama 2的大型语言模型,而且只针对一小部分用例,例如文本生成和总结。
Thurai表示:“就其整体的生成式AI产品而言,Oracle仍然远远落后于微软、谷歌和亚马逊,这些厂商都提供了更强大的功能和更灵活的部署选项。但是,如果价格合适,和运行在OCI上的ERP、HCM、SCM和CX应用集成的选项,可能会使该产品对于很多企业来说都是有吸引力的。但如果不是的话,AWS则可能会轻松获胜,因为AWS的生成式AI服务目前远远领先于Oracle。”
这项新服务的推出至少应该有助于Oracle成为企业进行生成式AI开发的一个选择。Oracle在努力成为基础设施方面的一个关键参与者,提供对Nvidia最强大GPU的、基于云的访问路径。
好文章,需要你的鼓励
尽管芯片厂商不断推出性能更强的神经处理单元,声称比上代产品快30-40%,但大多数AI功能仍依赖云端处理。专家指出,云端AI模型拥有数千亿参数,而手机NPU只能处理约30亿参数的模型。本地AI处理虽然在隐私保护和可靠性方面具有优势,但受限于内存容量和处理能力,目前主要应用于特定场景。业界正致力于优化模型压缩技术,实现云端与本地AI的混合处理模式。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
Hammerspace通过现有NVMe存储最大化GPU使用率。随着AI计算在混合云和多云环境中扩展,基础设施团队面临着加速洞察时间同时最大化GPU投资的压力。Hammerspace Tier 0将GPU服务器集群内的本地NVMe存储转换为超高速共享存储层,性能比传统网络存储提升10倍,减少检查点时间,提高GPU使用率,改善推理响应时间,无需额外存储系统,节省数百万美元成本。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。