ZDNet至顶网软件频道消息:很多网球迷可能还记得,08年北京奥运会的时候,李娜在半决赛受到了场内观众一定的干扰,最终输掉了比赛。那时候观众对网球这项运动还不是那么的了解,而随着这些年以中网为代表的国内各大网球赛事的举办,我们看到,观众在现场观赛的秩序明显改善了。
不仅是网球,互联网在推动整个体育行业快速发展的同时,也将我们的体育爱好者变得越来越专业,特别是现在的年轻观众。像我这样年龄的球迷大多是泛体育爱好者,当年我们是有什么比赛就看什么比赛,有羽毛球比赛的时候看羽毛球,有网球比赛时看网球,篮球和足球也是一样。但是现在的年轻人很显然不是这样的,他们可能更专注于自己真正喜爱的运动,并很容易就成为这项运动的专业爱好者。
本文作者:乐视体育首席内容官刘建宏
这样一个越来越专业的观众群体,也对我们的体育赛事转播提出了更高的要求。为观众呈现优质的节目内容,为观众提供更佳的观看体验,满足观众的个性化需求,是今天媒体能否抓住观众的关键。
当观众不再是被动的接受,而是有针对性的关注自己所喜爱的体育赛事,现有的传统媒体很难把广大观众们的需求都照顾到。8月底的那个周末,乐视体育总共直播了50场体育比赛,总直播时长超过100小时。要知道,在物理时间只有48小时的客观条件下,如今的传统电视台是无论如何也完成不了这个任务的。而互联网媒体借助自身互联网平台的技术优势,能够尽可能满足更多观众的观赛需求,涵盖各类体育赛事,从而打造一个一站式的综合性体育平台。这100小时的直播,其实还只是乐视体育现有版权所反映出的一个直播时间概念。未来,只要我们继续巩固现有的庞大版权基础,100小时这个数字一定是可以突破的。乐视网、乐视体育希望提供给用户的,是一种海量的选择性。这种选择既包括了观赛时间、观赛内容的选择,也包括观赛方式的选择。无论是通过乐视TV·超级电视、笔记本电脑,还是平板电脑、手机,体育迷们都可以根据自己的喜好同时收看多场比赛。以英超为例,每个赛季的最后一轮比赛都是同时开赛,有些英超球迷既想看争冠战役,又想看保级大战,在传统媒体上无法实现兼顾,乐视体育给了这些球迷最好的解决办法。
提到体育赛事转播就不得不提解说工作。我们的观众在变得越来越专业,这也要求我们的赛事解说员要变得更加专业,提供更周到、细致的服务。以往解说员相比观众最大的优势可能是他在这项运动上积累的观赛经验,他利用自身的经验去分析比赛就已经足够了。但是现在的观众已经不满足于依靠经验的泛泛解说,他希望解说和赛事主办方能提供更多的量化的论据。因此现在许多体育赛事都在与专业的数据分析机构合作。以今年的中网为例,IBM公司在今年的中网赛事中通过MatchTracker(实时赛事追踪系统)为比赛做实时的数据分析和相关历史数据的分析。乐视体育也与IBM合作,借助MatchTracker将可视化的数据嵌入到赛事转播的各个终端页面,满足观众对专业的数据分析的需求,也帮助赛事解说员在进行比赛分析时变得更加客观、更加有底气。我们甚至还会针对MatchTracker提供的数据进行挖掘,从而制作更加专业的、符合观众兴趣、不同于传统样态的节目内容,为观众提供更好的观看体验。
当然,在新互联网时代,体育赛事转播的关注点不该仅仅停留在“专业”上。网球也好,别的体育项目也好,我们的观众越来越热衷的更是一种“参与感”,一种能通过一项运动找到快乐的感觉。而参与的方式可能是观看比赛、可能是亲身参与这项运动,也可能是通过与其他观众、与解说的交流和互动。乐视体育所提倡的选择性、互动性,就是希望人们能通过选择找到个性化的观赛视角,通过互动找到能够充分表达自己的渠道。比如你想让大家都看到你对比赛的辛辣评论,你可以选择弹幕功能;比如你对提供的解说有太多吐槽,你可以选择自己来解说。
当我们的观众变得越来越专业,我们自身也只能变得越来越专业,让更多的用户享受我们为他们打造的体育生活,不仅是更加自在、更加有参与感的观赏比赛,同时要让更多人拥有属于自己的定制版体育生活。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。