至顶网软件频道消息: 3月22日,微软(亚洲)互联网工程院宣布率先推出新一代的语音交互技术:全双工语音交互感官(Full-duplex Voice Sense),并已完成产品化落地。与既有的单轮或多轮连续语音识别不同,这项新技术可实时预测人类即将说出的内容,实时生成回应并控制对话节奏,从而使长程语音交互成为可能。此外,采用该技术的智能硬件设备,将不再需要用户在每轮交互时都说出唤醒词,仅需一次唤醒,就可以轻松实现连续对话,将语音交互的自然度推进到一个新的层次。
目前,该技术已首先在微软小冰全球产品线中落地。其中在中国市场,除落户中国科技馆的小冰电话亭外,微软还与小米公司紧密合作,米家生态链Yeelight语音助手的市售硬件产品已开始进入千家万户。这是全球首个搭载全双工语音交互感官的智能设备,也是内置微软小冰的首个“双AI”智能设备。在日本市场,小冰凛菜(りんな)已通过该技术实现在直播平台中的落地,首个车载智能项目也已开始路试。微软计划于未来六个月内,完成该技术在更多产品线中的覆盖。
语音交互是对话式人工智能及智能硬件设备的基础之一。全双工语音交互技术的应用,有望实现用户体验的下一次飞跃,并成为人工智能语音交互的新“标准配置”。对此,微软小冰全球研发负责人周力博士表示:“从已落地的产品数据和用户反馈中,我们观察到一个普遍现象:用户一旦使用过微软小冰的全双工语音交互感官之后,再与其他语音助手交互时,他们普遍会开始感到不习惯,甚至会频繁忘记要对其他语音助手说唤醒词——新技术促进拟人自然度的显著提升,使人们对过去单轮或多轮连续语音交互体验的满意度迅速下降。这种新老交替的现象,符合我们的研发预期。”
微软全球资深副总裁、微软(亚洲)互联网工程院院长王永东博士表示:“我们预测,未来一年中,人工智能应用将越来越多地从某些单一技术领域,进入到发挥综合能力的阶段。微软已在这方面深入布局。此次全双工语音交互技术的推出,不仅涉及到计算机语音技术,还包括自然语言处理、人工智能内容创造等多个领域。这正是微软在这些领域长期储备、综合运用的成果之一。”
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。