Netflix 正在对其电视用户界面进行重大升级。除了焕然一新、更简洁的外观外,你还会看到根据你的观看行为动态调整的推荐内容,Netflix 正努力更准确地判断你此刻可能想看的节目。该公司计划在未来几周和几个月内逐步推出此次更新。
看起来,此举——一直以来也是 Netflix 的目标——是为了帮助你更快地找到想看的内容。这样一来,你就不会花费大量时间在各种选项间不停滑动,同时苦苦思索该从哪里开始观看。
Netflix 最初设计电视用户界面时主要是为了展示剧集和电影,但为了更好地适应直播、云游戏等新型娱乐内容的需求,界面也不得不不断进化。Netflix 首席产品官 Eunice Kim 表示,公司自去年起就一直在致力于全新电视体验的开发。Kim 在一次记者电话会议上表示:“我们重新设计的电视首页更加简洁、直观,更好地呈现了当今 Netflix 所拥有的丰富娱乐内容。”
全新的剧集、电影等项目的展示块尺寸大大增大。重新设计后的页面不再将某个高亮标题的信息放在屏幕顶部,而是将所有信息整合在一起。
每个展示块都包含更多一目了然的上下文信息,说明你为什么可能会对某个内容感兴趣。它可能标明某个剧集或电影是最近新加入的,是 Netflix 最受欢迎前十的内容之一,曾获奖项,或者即将离开平台。否则,Netflix 也可能认为你会非常喜欢这种推荐。
Kim 表示,当你在不同展示块间切换时,动画效果将显得更加迅捷和流畅。全新用户界面还使 Netflix 更容易在首页顶部突出显示直播活动——例如圣诞节 NFL 比赛、 WWE 节目及 Everybody's Live with John Mulaney 等。
现在,主导航栏已移至屏幕上方,包含首页、剧集、电影、游戏以及 My Netflix(在这里你可以找到“继续观看”列表、My List、提醒等)。搜索功能也在上方,依然可以浏览各个分类。你只需轻按电视遥控器上的返回键,就能便捷地切换到上方的导航栏。
浏览过程中,Netflix 会实时调整推荐内容。所以,如果你恰好对《鱿鱼游戏》双击点赞以示喜爱,Netflix 可能会在首页稍微下方即时添加一排类似风格的内容。你所观看的预告片以及搜索内容也会影响这些响应式推荐。所有这些操作都在后台默默进行,旨在让整体体验更加无缝流畅。
Netflix 早已将观看习惯等因素融入个性化推荐中。公司首席技术官 Elizabeth Stone 表示:“响应式推荐的更新之处在于活跃的浏览行为。”Stone 补充道:“这还可能包括诸如时间点等因素。随着时间的推移,还可能涵盖用户明确表达其想要寻找什么的情况。”
此外,Netflix 最近开始测试一项由 OpenAI 驱动的生成式 AI 搜索功能。该功能的理念是让你根据当前心情搜索内容。所以,你可以要求找一些既有一点恐怖又有点幽默,不过不能过于极端(毕竟恐怖喜剧是最佳电影类型),系统会给出一些相关建议。澳大利亚和新西兰的一些用户最先获得了此工具的试用权限。Netflix 正从本周开始以自愿参加的测试版形式,将这一功能推广给更多订阅用户。
未来几周内,Netflix 还将开启一项全球范围内的手机竖屏视频测试。该视频流将包含片段和预告片,并可从应用首页的一行内容中访问。你可以轻触立即观看该剧集或电影,或将其加入 My List,同时还有分享片段的选项。过去几年中,Netflix 曾尝试过类似的喜剧短片和儿童节目片段推送。
与此同时,当被问及在苹果被迫更改 App Store 付费政策后,Netflix 是否会效仿 Spotify 允许用户从 iOS 应用中注册账号时,Kim 表示公司正密切关注该情况,但目前没有更多更新可分享。与此同时,Netflix 将“继续遵守 App Store 政策,直到我们了解如何最好地实施未来的相关变更。”
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。