麻省理工学院和IBM Watson AI Lab的研究人员创建了一个机器学习模型,用于预测听众在3D空间内的不同位置上会听到什么。
研究人员首先使用这个机器学习模型来了解房间中的任何声音是如何在空间中传播的,按照人们通过声音理解自身所处环境的方式构建3D房间的图景。
在麻省理工学院电气工程与计算机科学系(EECS)研究生Yilun Du共同撰写的一篇论文中,研究人员们展示了如何将类似于视觉3D建模的技术应用于声学领域。
但是他们要面对声音和光线传播的不同之处。例如,由于障碍物、房间的形状和声音的特性,听众处在房间中不同的位置可能会对声音产生非常不同的印象,从而让结果变得难以预测。
为了解决这个问题,研究人员们在他们的模型中建立了声学特征。首先,在所有其他条件都相同的情况下,交换声音源和听众的位置不会改变听众听到的内容。声音还特别受本地条件影响,例如位于听众和声音源之间的障碍物。
Du表示:“到目前为止,大多数研究人员只专注于视觉建模。但是作为人类,我们有多种感知模式。不仅视觉很重要,声音也很重要。我认为这项工作开辟了一个令人兴奋的研究方向,可以更好地利用声音来模拟世界。”
使用这种方法,生成的神经声场(NAF)模型能够对网格上的点进行随机采样,以了解特定位置的特征。例如,靠近门口会极大地影响听众听见房间另一侧声响的内容。
该模型能够根据听众在房间中的相对位置预测听众可能从特定声学刺激中听到的内容。
这篇论文表示:“通过将场景中的声学传播建模为线性时不变系统,NAF学会不断地将发射器和听众的位置映射到神经脉冲响应函数,后者可以应用于任意声音。”“我们证明了NAF的连续性让我们能够在任意位置为听众渲染空间声音,并且可以预测声音在新位置的传播。”
MIT-IBM Watson AI Lab的首席研究员Chuang Gan 也参与了该项目,他表示:“这项新技术可能会为在元宇宙应用程序创建多模态沉浸式体验带来新的机会。”
我们知道不是所有 Reg 读者都会对这个用例感到兴奋。
好文章,需要你的鼓励
OpenAI在最新博客中首次承认,其AI安全防护在长时间对话中可能失效。该公司指出,相比短对话,长对话中的安全训练机制可能会退化,用户更容易通过改变措辞或分散话题来绕过检测。这一问题不仅影响OpenAI,也是所有大语言模型面临的技术挑战。目前OpenAI正在研究加强长对话中的安全防护措施。
北航团队推出VoxHammer技术,实现3D模型的精确局部编辑,如同3D版Photoshop。该方法直接在3D空间操作,通过逆向追踪和特征替换确保编辑精度,在保持未修改区域完全一致的同时实现高质量局部修改。研究还创建了Edit3D-Bench评估数据集,为3D编辑领域建立新标准,展现出在游戏开发、影视制作等领域的巨大应用潜力。
谷歌宣布计划到2026年底在弗吉尼亚州投资90亿美元,重点发展云计算和AI基础设施。投资包括在里士满南部切斯特菲尔德县建设新数据中心,扩建现有设施,并为当地居民提供教育和职业发展项目。弗吉尼亚州长表示这项投资是对该州AI经济领导地位的有力认可。此次投资是谷歌北美扩张战略的一部分。
宾夕法尼亚大学研究团队开发出PIXIE系统,这是首个能够仅通过视觉就快速准确预测三维物体完整物理属性的AI系统。该技术将传统需要数小时的物理参数预测缩短至2秒,准确率提升高达4.39倍,并能零样本泛化到真实场景。研究团队还构建了包含1624个标注物体的PIXIEVERSE数据集,为相关技术发展奠定了重要基础,在游戏开发、机器人控制等领域具有广阔应用前景。