如果希望进一步提高利润水平,红色巨人的云交叉销售服务能够帮助您预测客户口味。近日,甲骨文公司发布一项新的云服务,据称能够自动询问客户是否希望在点餐时加配薯条。
红色巨人旗下酒店业务部门发布新的“数据科学云服务”,其中包括“甲骨文酒店菜单推荐云服务(Oracle Hospitality Menu Recommendations Cloud Service)”。该服务旨在帮助各类酒店“通过位置或者时间信息提供最佳延伸或者交叉推销选项,并根据客户行为动态更新建议内容。其可分析与交叉销售与延伸销售的相关假设,从而更好地了解客户行为及偏好。”
甲骨文公司的目标在于为客户提供其Micros销售点套件,并借此利用多云环境实现分析,确保酒店工作人员能够借用设备屏幕向客户提供尽可能优惠的服务。值得一提的是,全部建议内容都可以在客户订购食物或酒水、甚至刚刚进入酒店之时即整理完成。
甲骨文方面还建立起“甲骨文招聘自适应预测云服务”,旨在“让运营人员更好地预测各个地点的库存与劳动力需求”,同时“尽可能减少库存浪费、降低劳动力成本,最重要的是保证提供卓越的客户体验。”
在我们看来,两者的结合可能意味着希望马上吃到薯条的消费者只能苦等系统决定提出相关询问——但打算吃松露的消费者估计能够免去这类困扰。
好文章,需要你的鼓励
Captions公司研究团队开发的Mirage模型实现了从音频直接生成说话视频的突破。该技术能准确生成与声音匹配的面部表情、唇型同步、手势动作和环境背景,甚至可仅从音频推测说话者外貌特征。基于统一的Diffusion Transformer架构,Mirage避免了传统方法的复杂专用模块设计,展现出卓越的情感表达和细节还原能力,为内容创作、教育培训和无障碍技术等领域开辟了新的应用可能。
牛津大学研究发现,尽管大语言模型在医学考试中表现出色,但在实际应用中效果大打折扣。研究显示,LLM直接测试时能94.9%准确识别病症,但人类使用LLM诊断时准确率仅34.5%,甚至低于不使用AI的对照组。问题源于用户提供信息不完整、LLM理解偏差等人机交互问题。专家指出,仅凭非交互式基准测试评估LLM存在误导性,需要真实的人机交互测试才能准确评估AI系统的实际性能。
NAVER和KAIST研究团队发现,先进AI模型在数学题自我修正方面存在严重缺陷。他们创建的MMRefine基准测试揭示,即使是GPT-4O等顶级模型也只能成功修正约23%的错误答案,而且经常将正确答案改错。研究发现不同模型在处理六种错误类型时表现差异巨大,特别是小型模型在空间推理修正上竟然超越了大型模型,颠覆了"越大越好"的认知。