10月18日,阿里云IoT联合阿里巴巴达摩院正式发布分布式语音交互解决方案,该方案将集成双方的平台连接能力和语音交互技术,以声控的形式完全改造家居环境,只需要简单说上几句话,就能让家里的设备全都“动”起来。

传统语音交互受限于空间,用户只能在智能音箱等单一入口所触达的空间实现声控,而此次发布的分布式语音解决方案,能够将语音交互能力输出到各类家居设备上面,实现“无处不在”的声控体验。
据介绍,该方案包括前端声学模组、语音自学习平台、对话平台以及阿里云IoT智能人居平台,打通了上下游平台串联、端云一体能力,可以大大缩短智能人居环境开发周期,具备很强的扩展能力。
采用该分布式语音解决方案的电器设备,可以通过就近的开关作为智能语音交互入口,即可对全屋智能家居语音控制,通过智能人居平台,家居场景智能设备语音操控将很容易就实现全覆盖,小到开关灯,大到新风系统操控,将完全实现语音触达。
阿里巴巴达摩院语音实验室研究员付强表示,在语音交互前端处理技术和方案的研发上投入了非常大的技术力量,此次和阿里云IoT共同推出的分布式语音交互解决方案,也是一次在声控式人居层面的创新应用。未来,将继续加大在智能语音交互方面的研究和合作,打造更多的全新产品。
当前,语音交互逐渐成为热门领域,特别是在智能家居领域,开始替代以触控为主的交互方式,此次发布的分布式语音交互解决方案,势必为智能智能家居行业带来了新的推动力,未来家居行业也有望迎来全声控时代。
好文章,需要你的鼓励
Converge Bio完成550万美元种子轮融资,由TLV Partners领投。该公司专为生物科技和制药行业打造LLM应用平台,提供数据增强、模型微调及可解释性分析等功能,帮助企业将通用生物基础模型转化为可实际落地的研发工具。以抗体研究为例,平台可将抗体LLM精调至氨基酸级别的结合亲和力预测,并生成优化序列。公司计划用于扩充团队、拓展客户,并发布抗体设计科研论文。
香港大学与哈尔滨工业大学联合发布的这项研究(arXiv:2605.06196)发现,大语言模型在扮演不同社会层级角色时,内部神经网络存在一条清晰的"粒度轴",从普通个人视角延伸至全球机构视角。这条轴是AI角色空间的主导几何方向,可被测量、被跨模型复现,并通过激活引导技术加以操控,为AI社会模拟的可信度评估和角色视角的主动调控提供了新工具。
ChatGPT高级语音模式的创造者Alexis Conneau离开OpenAI后,创办了音频AI初创公司WaveForms AI,并获得由a16z领投的4000万美元种子轮融资。该公司专注于训练自有音频大语言模型,计划于2025年推出与OpenAI、谷歌竞争的AI音频产品。Conneau深受电影《Her》启发,致力于开发具备情感感知能力的语音AI,同时警惕AI伴侣化带来的社会问题,强调技术应服务于人而非取代人际关系。
华盛顿大学研究团队发现,在AI数学推理训练中,将随机拼凑的拉丁文占位词(Lorem Ipsum)添加到题目前,能帮助AI突破"全部答错、训练停滞"的困境,在多个模型上平均提升推理得分2.8至6.2分。研究揭示了有效扰动的两个关键特征:使用拉丁语词汇避免语义干扰,以及保持较低困惑度确保AI能正确理解题目内容。