ZDNet至顶网软件频道消息:移动时代,用户的消费行为发生巨大变化,不仅倾向于移动搜索,同时在搜索形式上更加多元化。移动互联网为搜索带来了新的可能性,比如语音和图像搜索。语音搜索行为的增加、图片搜索需求的增强,为技术创新指出了人性化的方向。
百度CEO李彦宏在2014年百度世界大会上透露,未来五年语音图像搜索会超过文字,“目前百度10%的搜索请求是语音形式,而且使用该形式的搜索次数一天可以最高达到500次,更多是儿童进行该种形式的搜索。语音历史有二十万年,是自然而低门槛的表达方式,今天已经可以用来向PC和移动端表达需求。”
李彦宏表示,另一种新的搜索形式为图像搜索。百度目前可以支持通过拍照方式进行图片内容搜索,比如拍下家具、工艺品、花等来了解该物件的具体信息。
过去半个世纪,创新的速度在加速,技术门槛不断上升,而用户的使用门槛在降低,现代人表达需求方式多样化,从文字、语音到图像。“传统产业要对消费者的行为变化保持敏感”,李彦宏为迷茫的传统产业指路称,“越来越多的人已经在移动搜索中开始寻找服务,而这一变化直接造成了传统产业拥抱移动互联诉求的空前强烈。”
过去一年,消费需求发生的变化在于越来越多人在移动搜索中寻求服务,从2013年7月到2014年7月,用户在百度搜索上的需求增加了133%。
李彦宏在会上以实际案例介绍了当下传统产业拥抱移动互联网的三种方式,通过移动站、原生APP和第三方平台,传统服务业正在积极拥抱移动互联网。
在移动站方面,以佳美口腔举例,过去一年移动端流量增速是PC端4倍,不过移动端的流量新客户转化率不到PC的50%。
在原生APP方面,因为使用率较低,是个高门槛的触网方式;在第三方平台方面,以参与团购活动的新辣道鱼火锅举例,新辣道下了大量成本通过公众号方式触达用户,做市场活动时第三方开发用了至少一个月。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。