撰文 | 栗子
编辑 | 黄当当
上一期提到元宇宙入口将以「XR 设备、芯片、场景应用」多种形态并存。本期主要围绕「场景」入口具体来说。
从字面看,入口指的是“进入的地方”。它一边连着“来处”,一边连着“去处”。所以,元宇宙的场景入口,首先必须具备「两栖」特性——更确切来说,是具有横跨于现实世界和虚拟空间的需求。
从目前来看,至少有两类场景会有这样的需求:
第一,关注用户体验的场景,希望通过元宇宙提供的沉浸式体验,提升使用感,提高用户粘性,比如游戏、社交;
第二,需要跨越空间进行交互的场景,比如远程演唱会、协同办公等等,通过进入元宇宙,即便是远程交互也能拥有亲临其境的体验。
其次,作为场景入口,还有一个重要的前提,就是拥有数据采集能力,具有一定的数据基础。在虚拟空间,所有的人、事、物都是以数据形式存在的,因此,只有现实世界这一侧的数据被有效收集,才能在虚拟空间映射和构建出一个完整的数字世界。(为什么游戏和社交被视为现阶段进入元宇宙首批场景“入口”,其中一个重要的原因就是这两个场景都拥有大规模的用户群体,并且,这些用户本身都是“数字住民”。)
此外,相关技术(如AR/VR/MR、区块链)能否很好地接入,也会在很大程度上决定某个场景能否成为元宇宙的“入口”。
虽然风口已来,但落地还需要时间。也许在未来,元宇宙的场景“入口”会完全超出我们的认知而存在。
[编者按]:《元宇宙十万个为什么》是至顶网策划的一档特别栏目,我们希望做元宇宙时代的观察者、记录者、推动者。本篇为该系列第三问。
好文章,需要你的鼓励
腾讯今日开源混元MT系列语言模型,专门针对翻译任务进行优化。该系列包含四个模型,其中两个旗舰模型均拥有70亿参数。腾讯使用四个不同数据集进行初始训练,并采用强化学习进行优化。在WMT25基准测试中,混元MT在31个语言对中的30个表现优于谷歌翻译,某些情况下得分高出65%,同时也超越了GPT-4.1和Claude 4 Sonnet等模型。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
今年是Frontiers Health十周年。在pharmaphorum播客的Frontiers Health限定系列中,网络编辑Nicole Raleigh采访了Startup Health总裁兼联合创始人Unity Stoakes。Stoakes在科技、科学和设计交汇领域深耕30多年,致力于变革全球健康。他认为,Frontiers Health通过精心选择的空间促进有意义的网络建设,利用网络效应推进创新力量,让企业家共同构建并带来改变,从而有益地影响全球人类福祉。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。