沃尔玛在应用新技术、拥抱转型方面一直是全球企业中的主力军。可以想见,如果一直固守“祖宗之法不可违”的心态,沃尔玛也绝不可能发展成为如今全球最大的零售巨头。特别是在生成式AI方面,沃尔玛正积极将这项新兴技术整合进自身业务体系,运用这种变革性工具提高绩效、为客户提供更好的服务体验。
下面一起来看沃尔玛部署生成式AI的几种具体方式。
改善购物体验
不少顾客会在门店或网站上每周或者定期采购相同的商品。沃尔玛深知这一规律,因此专门推出了语音购物功能,让顾客可以轻松重购自己固定需要的货品。沃尔玛语音订购服务允许顾客将移动设备及家庭智能音箱接入自己的沃尔玛账户,之后大声说出想要订购的货品即可。例如,客户可以呼叫“嘿Google,请在购物车里添加一打鸡蛋”,系统即可理解请求内容、识别客户之前长期选购的品牌,之后自动完成商品添加。就是这么顺畅丝滑。
此外还有“短信购物”功能,顾客可以通过向沃尔玛发送短信来申购自己需要的产品。通过对话式AI技术支持的简单文本聊天,客户能够轻松搜索商品、在购物车内添加/删除产品、重新订购产品以及安排配送/到店自取。
沃尔玛还推出一款新的在线AI购物助手,旨在帮助顾客迅速找到最适合自身需求的产品,甚至协助策划完美的庆祝活动。无论大家是想给六岁的孩子举办超级英雄主题派对,还是想给青少年们张罗一套有趣的万圣节服饰,这款工具都能准确推荐相关产品,帮助顾客摆脱枯燥繁琐的重复搜索。
为门店员工提供语音协助
生成式AI语音助手的服务对象不只是顾客,沃尔玛还为门店员工设计了名为“Ask Sam”问问山姆的对话式AI方案。该AI助手能够帮助员工们解决各类查询需求,例如在门店内查找特定产品、查询价格或者检索员工们的工作安排等。同样的,整个查询过程非常顺畅,员工可以通过“肉桂摆在哪条通道”这类简单的提问获取答案。
增强客户服务
大多数朋友对于客户服务聊天机器人应该不会陌生——但必须承认,以往的不少机器人相当“智障”、往往答非所问。但生成式AI让聊天机器人的功能水平得到飞跃式提升,让它们能够以更智能、更人性化的方式解释并响应请求。也正因为如此,包括沃尔玛在内的诸多企业才决定转向生成式AI,希望借此自动为客户提供服务支持。沃尔玛表示自2020年以来,该项技术已经通过即时提供退货、订单状态等问题的答案,帮助客服人员分担了数百万次请求。这项实时对话功能已经在多个国家/地区开放,包括美国、加拿大、墨西哥、智利和印度等。
供应商谈判自动化
另一个有趣的用例则是供应商谈判。沃尔玛已经尝试使用生成式AI聊天机器人与89家购物车及其他门店设备供应商达成交易。在众多供应商谈判当中,聊天机器人完成的交易占比已经高达64%,平均节约成本为1.5%,同时额外将付款期限放宽了35天。更令人印象深刻的是,83%的供应商表示更喜欢与聊天机器人谈判,这证明自动谈判不仅能够带来更宽松的交易条款,也能给供应商们提供良好的协商体验。
允许员工提出更多自发解决方案
不少企业领导面临的一大难题,就是如何为生成式AI等新兴技术找到最合适的应用场景。在这方面,为什么不问问最了解一线情况的普通员工呢?沃尔玛采取的也正是这种方式,他们开始在业务设施的各个层面对员工开放生成式AI工具“My Assistant”我的助手,希望生成式AI能够减少“单调、重复任务”给员工们带来的负担,让大家将更多时间和精力投入到改善客户体验当中。更重要的是,沃尔玛允许员工在日常工作中自发摸索该工具的最佳使用方法。换句话说,沃尔玛希望发动庞大的员工群体探寻生成式AI的应用方向,并将此作为培养员工创造力、引导员工接触新技术的首选路径。
如今的沃尔玛仍在大步前行,继续寻求将这种变革性技术整合进自身业务体系的方法。各行各业的其他组织也不妨以此为鉴,设计出适合自己的生成式AI新用例。
好文章,需要你的鼓励
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。