ZD至顶网软件频道消息:许多微软观察家在过去的几个月里曾(错误地)满怀希望地预测,微软已经做好了推出与亚马逊Echo和谷歌Home竞争产品的准备。
专挖微软消息的网友The Wakling Cat(又名@h0x0d)挖出了家庭中心(“Home Hub”)的信息后,这一类谣言更是甚嚣尘上。但The Wakling Cat还发现,家庭中心并不是硬件,而是Windows 10里的某个或某些功能,至少在起始阶段是用于启动家庭账户共享。
12月2日,Windows中心网站发布了更多来自内幕的关于家庭中心的消息。诚如家庭中心的名字所暗示的,家庭中心的功能和策略是要使Windows 10成为一家里各用户的共享中心。
据Windows中心网站介绍,用户通过家庭中心能更容易地、以更无缝连接的方式共享日历、应用程序和服务。
(笔者曾问过微软愿不愿意谈谈家庭中心。到目前为止我还没收到任何回应,不过我预计会收到“不予置评”的回答。)
顺便说一句,微软数年来一直在努力实现上述的家庭协作/生产力愿景。微软曾在2013年做过一个未来“愿景”视频,目的是要展示一下公司高管对未来5年到10年里科技走势的看法。视频也展示这方面的一些概念,微软可能要通过家庭中心交付视频所展示的家庭协作概念。
笔者在上文里插了2张2013年视频的截屏,从图中可以看到,共享环境里的家庭成员可以在大屏幕设备甚至在家里的墙上分享照片、应用和日历。图像识别技术有可能在用户将物件放在这种设备上时触发一些积极的建议,比如给出以胡萝卜为主的食谱。
微软最近发了一个操作系统工程软件工程师职位的广告,其中也突出了微软蓬勃发展的“家庭”重点走势。实际上,微软的Windows和设备部(Windows、Xbox、HoloLense和Surface的老家)里有个“家庭团队”,该团队主打针对家庭和居家网站和后端服务。
11月的职位广告是这样写的:
“家庭用户是微软最宝贵的忠实客户。他们希望孩子们可以在家庭环境里安全地、无忧地使用家庭设备和服务。家庭用户希望能很容易地分享照片、视频、应用程序、游戏和其他购物体验。家庭用户希望能自由地交流和保持联系。微软与谷歌、亚马逊、苹果、美国电话电报公司(AT&T)及许多其他科技巨头之间的竞争极为激烈,各家都在打造抢眼的家庭产品组合,这场比赛才刚刚开始。
快来加入WDG家庭团队吧,让我们共同成为该项使命的核心。职位描述:设计和构建网站和后端服务,为全球数亿用户和他们家人提供重要的家庭功能;该职位的工作将:令家庭健康成长,保障互联网上儿童的安全,提供无忧网购,分享数字媒体和订阅,等等不一而足。”
另外,微软聚焦自然语言接口,所以Cortana、Skype,机器人和Surface笔/Dial外设也大有可能成为家庭中心策略的一部分。再者,微软在向云优先公司转型,Azure无疑也将发挥其作用。
微软已经在一些Windows“家庭”功能(后来改名为微软家族家庭安全控制)里和围绕“居家”用户在Office 365家庭用户定价/许可上做了一些这方面的工作。但到目前为止,这些工作都只是基础性的。
假如Windows中心网站说的是准确的,微软则可能进一步将家庭中心扩展成连接的家庭概念的核心。同样,微软已经在“HomeOS”(家庭操作系统)概念上做了相当多的试验和研究,但却并没有将有关技术推至市场。
笔者认为,微软Surface团队那还不至于冒出一个类似“Cortana Cube”Echo/家庭一类的竞争产品,Surface团队目前似乎在集中精力搞商业优先类的设备。但一些Windows OEM或许会尝试推出这种设备……
好文章,需要你的鼓励
模型上下文协议(MCP)服务器是连接概率性大语言模型和确定性微服务工作流的关键节点,充当推理引擎与外部数据工具的翻译层。在生产环境中部署AI智能体时,MCP服务器承担着定义智能体能力、管理上下文数据和执行操作三大核心职责。由于其非确定性客户端特性,传统单元测试无法有效验证,需要通过端到端测试来确保系统可靠性,这使得MCP服务器成为智能体架构中不可或缺的关键基础设施。
SimWorld是由UCSD等多所顶尖院校联合开发的革命性AI仿真平台,基于虚幻引擎5构建了具备真实物理规律的虚拟城市环境。该平台支持无限扩展的程序化世界生成和自然语言交互,让AI智能体能够在复杂环境中学会生存、合作和竞争,为通用人工智能的发展提供了前所未有的训练平台。
英伟达推出Vera Rubin计算平台,专为驱动具备思考和推理能力的智能AI系统而设计。该平台采用NVL72液冷机架系统,集成六种芯片包括新Vera CPU和Rubin GPU。相比Blackwell架构,Rubin GPU推理速度提升5倍,训练速度提升3.5倍。平台还推出推理上下文内存存储解决方案,性能提升5倍。此外,英伟达还发布了面向自动驾驶的开源Alpamayo模型系列。
浙江大学联合华为提出C2DLM,这是一种因果概念引导的扩散语言模型,通过自动提取因果关系并融入注意力机制来增强AI推理能力。相比传统方法,C2DLM在推理任务上平均提升1.31%-12%,训练效率提高3.2倍,为解决语言模型推理能力不足开辟了新路径。