ZD至顶网软件频道消息 (文/张晓楠):近日,IBM宣布其基于SaaS的营销云解决方案——IBM Marketing Cloud正式在大中华区落地。这一产品紧密贴合了中国市场的特点和需求——针对微信营销在中国的火热,IBM营销云推出了微信营销组件——IBM WeChat Audiences,通过这一微信营销组件,营销人员可以更容易地选择目标顾客,规划信息推送时间,从而让营销人员向客户提供更具有针对性和竞争力的营销组合。
IBM营销云的前身,是两年半前IBM收购的一家云营销公司——Silverpop。基于Silverpop多租户的SaaS特性以及万级的用户群,IBM打造了其SaaS模式的营销云解决方案。
据IBM认知商务事业部市场解决方案副总裁Christopher K.Wong介绍,Silverpop中有一个非常强的技术——Universal behaviors(普遍行为分析),可以把每个个体的行为与身份进行匹配,利用这一行为分析结果对每个人提供定制化的、有针对性的服务。而且鉴于Silverpop多租户的特性,这一行为分析和身份匹配工作可以实时进行。
这其中值得一提的是IBM营销云解决方案对来自不同渠道信息的捕捉和分析、并实现对消费者身份和相关数据进行管理的能力。对此Christopher K.Wong强调:“我们更关注不同渠道之间的协作和消费者的体验,而不是单一渠道的互动结果。”其实这句话的提出是有背景的,当前市场上给用户提供单一营销工具的解决方案并不少见,无论是传统软件厂商还是互联网公司,都在介入营销云的市场。但是在Christopher K.Wong看来,市面上很多营销云产品只解决用户某一个需求痛点,是一个碎片化的应用,缺乏整合的跨渠道管理能力,而这正是IBM营销云的强项所在。
在IBM营销云的产品特色方面,在记者看来其协作性也是另外一大亮点。协作不仅仅是指IBM营销云解决方案可以收集和分析来自不同渠道、不同工具之上的数据,还在于能够实现人与人之间的协作。毕竟在当今移动和社交的时代,企业内部各个部门都多少会与客户打交道,这也就有着多方获取客户数据的途径和可能。这时候在数据之上,如何让团队实现紧密合作变得尤为重要。这时候IBM营销活动设计工具——IBM Journey Designer就可以发挥重要作用了。IBM Journey Designer为用户提供一个虚拟白板,营销团队共享“用户画像”,同步了解顾客购买过程,进而做出更明智决策。只需拖放鼠标,营销人员就可轻松设计一个数字营销活动,这个工具使得组织内部不同的人可以在一起进行协作。
除此之外,IBM营销云还包括IBM营销过程分析工具(IBM Journey Analytics)、IBM用户行为分析工具(IBM Customer Experience Analytics)、IBM商务洞察分析工具(IBM Commerce Insights)等,为营销人员提供市场营销活动从策划、执行到回顾全过程营销工具。
就当前来看,IBM营销云所面向的行业包括零售、电商、媒体、体育等等营销策略对企业经营带来影响比较大的行业;另外通过IBM营销云产品与其他解决方案的组合,也面向银行、电信、航空公司等行业提供提供整体解决方案。
在解决方案的提供过程中,IBM认知技术也会从中发挥巨大威力,对此IBM认知商务事业部大中华区总经理Patricia Cheong表示:“通过IBM认知技术的运用,市场营销者可以获知如何更好地利用数据,如何面对数据规则提供定制化服务。”在记者看来,认知技术可能会让IBM营销云更好地获取业绩洞察能力,也就是说对营销行为有具体行动、目标和结果的考量,更多地做到事前监控而不是事后分析。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。