近日IBM表示,旗下咨询部门正在与AWS展开合作,帮助客户在IBM云计算基础设施上部署和实施生成式AI。
除了帮助客户部署一些非常具体的生成式AI用例之外,IBM还将watsonx.data平台与AWS进行集成,以及承诺到2024年底再培训10000名AWS生成式AI服务顾问。
IBM Consulting已经与AWS合作多年,帮助各行各业的客户实施AI和各种其他云服务。根据这次的消息,IBM表示希望在生成式AI方面取得进展。生成式AI是ChatGPT等类人聊天机器人和图像生成器等其他服务提供支持的一项热门技术。
这次宣布的合作伙伴关系,最初将侧重于帮助双方共同客户集成三个非常具体的生成式AI解决方案。IBM表示,将通过Amazon Connect实现联络中心现代化,已经与AWS合作创建了各种汇总和分类功能,使以客户服务为中心的聊天机器人能够快速总结与客户交互的详细信息,从而将这些呼叫无缝地转交给人类代理人。
IBM还将扩展在去年11月首次推出的Platform Services on AWS。IBM通过生成式AI对该服务进行了增强,使其可以更好地管理整个云价值链,为自动化与IT运营及平台工程相关的任务提供帮助。IBM表示,这个新的生成式AI功能为客户提供了工具,可以通过“智能问题解决和可观察性技术”,增强AWS上托管的应用业务可服务性和可用性。
至于Supply Chain Ensemble on AWS,也通过增加新的虚拟助手得到了增强,IBM表示,这将有助于加强和加速供应链专业人员的工作。
除了这些特定的生成式AI服务之外,IBM Consulting表示,还将把AWS生成式AI服务集成到IBM Consulting Cloud Accelerator中,帮助客户加速他们的云转型计划。据称,这些新服务的重点是逆向工程、代码生成和代码转换。
扩大AI人才库和工具
在加强这些新的生成式AI服务的同时,IBM还计划提高自己顾问团队的技能。IBM计划在明年年底前对10000名咨询人员进行AWS生成式AI服务培训和技能培训。实际上,IBM正在组建一支AWS AI专家队伍,他们将能够与客户互动,帮助客户找到利用新技术创新和改进业务流程的方法。
不过,客户不必只依赖IBM的专家。他们还可以使用watsonx.data等专业工具,watsonx.data是一个专门为生成式AI工作负载构建的数据存储,将在AWS上作为完全托管的软件即服务产品提供给客户。到2024年底之前,IBM的整个watsonx.ai和watsonx.governance服务组合预计都将在AWS上提供。
Constellation Research分析师Holger Mueller表示,云AI提供商和系统集成商正在竞相扩大联盟,以满足企业对AI系统的巨大需求。因此,此次双方的合作伙伴关系公告,对许多公司来说是个好消息。
“对于IBM来说,这也是一个引人关注的举措,因为IBM成为了Amazon很多AI服务的独家合作伙伴,尽管这种情况会持续多久还有待观察。”
他表示,IBM watsonx产品的可用性也值得注意,对于许多客户来说这可能更为重要。“IBM正在让watsonx成为AWS上的优先产品,可在AWS云市场上使用,这很关键,因为数据是AI的基础,因此watsonx.data将成为许多共同客户的起点。”
法国电信服务提供商Bouygues Telecom SA表示,他们是IBM和AWS扩大合作伙伴关系的最早受益者之一。Bouygues与IBM Consulting合作设计并实施了一项利用最先进AI技术、同时不断演化的云战略。
Bouygues和IBM通过IBM Garage方法共同设计了一个涵盖多个云场景的自定义数据和AI参考架构,该架构可以扩展到遍布IBM云和本地平台的所有AI和数据项目。Bouygues表示,他们通过这一点就能够以最低的成本或风险快速开发和扩大各种概念验证生成式AI模型。
Bouygues人工智能负责人Matthieu Dupuis表示:“当我们试图利用生成式AI从与客户的互动中获取洞察时,我们遇到了一些关于存储、内存大小和功耗要求的陌生问题。IBM Consulting和AWS在确定满足我们需求的正确模型并克服这些技术障碍方面,一直是宝贵的合作伙伴。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。