IBM正在与微软合作,向想要部署生成式AI和改进业务流程的企业提供IBM的专业知识。

这次公告主要是围绕IBM Consulting的,正在为那些试图在Azure云平台上使用微软Azure OpenAI服务的公司提供专门的服务,用户可以通过Azure Marketplace找到新的IBM Consulting Azure OpenAI Service产品。
IBM表示,这是一项完全托管的AI服务,专注于帮助开发人员和数据科学家使用OpenAI强大的大型语言模型来构建新型应用。通过该服务,开发人员可以访问OpenAI所有的大型语言模型,包括为ChatGPT提供支持的GPT系列和Codex LLM。
IBM表示,该服务可以帮助公司定义生成式AI的采用策略,然后开始创建更具体的生成式AI应用,而且IBM已经与微软合作开发了许多针对一些非常具体用例的生成式AI应用。
例如,IBM开发了一个采购和来源支付应用,将Azure Open AI Service与Microsoft Power平台相结合,以对寻源和采购等手动和分散流程实施自动化。IBM表示,这一切都是为了提高运营效率、节省时间、为客户创造可行的洞察。
另外一个IBM针对的明显用例是摘要和内容生成,创建可以高效处理和总结财务报告等的应用。
第三个应用旨在简化医疗流程。IBM Consulting解释了他们是如何使用Azure OpenAI Service构建一个平台,平台可以自动提取和分析医疗记录和政策文档,以自动执行事先授权的流程。同时,IBM为护士和医生开发了虚拟助理,使他们更容易访问患者的医疗记录。
最后,IBM提供了企业搜索和知识库体验,旨在满足公司员工的需求。在许多组织中,员工信息是分散且孤立的,这使得员工很难找到他们想要的信息。因此,IBM创建了一个知识提取工具,能够从多个知识库检索所请求的信息,从而减少手动搜索的时间。

Constellation Research分析师Holger Mueller表示,大多数公司都了解了生成式AI的潜力,但许多公司还在努力制定适当的战略,因为他们在这方面不具备足够的专业知识。因此,IBM的服务对他们来说可能是非常有价值的。他说:“IBM带来了很多东西,包括在平台方面提供帮助的AI服务,这不仅可以帮助企业创建AI应用和服务,还可以从这些项目中创造收入。”
Pund-IT分析师Charles King认为,这次的公告说明IBM强化了对多云合作伙伴及其解决方案的支持。他表示:“IBM和微软与数千家企业客户展开合作,因此支持微软的生成式AI产品和战略是非常有意义的。除此之外,IBM是业界最有经验的人工智能企业解决方案供应商之一。当微软推出自己的人工智能服务时,很难想象还有比这更好的公司来合作了。”
在Azure OpenAI咨询服务推出之前,IBM Consulting已经投入了巨资,专注于围绕最先进的生成式AI平台对他们的顾问进行培训。今年早些时候,IBM Consulting宣布成立一个新的生成式AI卓越中心,有1000多名顾问,随时准备提供专业知识来帮助企业客户。
除了这个卓越中心之外,IBM最近还发布了watsonx工具,供开发人员开始构建生成式AI应用。watsonx系列与IBM更有名的Watson AI服务不同,后者更专注于分析和处理数据。
IBM还通过watsonx支持其他生成式AI模型例如Meta Platforms的开源LlaMA 2 LLM,这意味着企业不仅限于使用OpenAI的模型。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。