亚马逊云科技(AWS)正在将桌面虚拟化(VDI)推向桌面即服务时代。
多年以来,VDI在全部台式机中的份额一直徘徊在5%以下,毕竟该技术部署起来绝非易事:大型服务器与完善的网络(通常为高速SAN)可谓缺一不可。另外,该设备还往往包含不少过度配置,用以应对大部分员工在工作日启动PC时经常出现的可预测峰值负载。VDI还需要配套客户端,所以尴尬的点来了——采用桌面虚拟化的组织仍然需要维护大量端点,包括不少物理PC……
大多数VDI用户身处受监管行业,例如政府或医疗保健行业。在这些行业当中,出于安全考虑(或是在众多员工间共享设备的现实需求),虚拟机确实更受欢迎。而在这片市场上占据主导的,自然就是戴尔、联想、Nutanix和HPE等超融合基础设施供应商。
疫情的爆发引燃了人们居家办公的热情,也让VDI再次进入主流视野。仅微软一家就统计出14亿台使用Windows 10/11的PC设备,而全球虚拟桌面机群可能已涵盖超7000万台机器,对应的用户数量也许更高。
VMware与思杰主导着VDI软件市场,而且能够在所有主流云平台上顺畅运行。但要想实现本地VDI部署,仍然摆脱不了同样的服务器与SAN配置。
这就给了AWS探索的空间,特别是降低用户的设备部署难度。这家云计算巨头给出的解决方案,就是将VMware的Horizon VDI产品与自家云WorkSpaces桌面即服务融合起来,共同构建起名为“WorkSpaces Core”的新产品。
该产品允许用户继续保留自己的VMware Horizon投资,只是将服务器上的虚拟桌面替换成Amazon WorkSpaces桌面即服务。这项托管服务能够将虚拟PC的运行和服务全部交由AWS打理,帮助用户彻底告别后端困扰。
用户仍可使用管理以往虚拟桌面设备的Horizon工具来管理新的WorkSpaces,AWS并不关心Horizon实例究竟运行在哪里。WorkSpaces Core用户既可以使用AWS提供的少数几种桌面配置(由于某种内部许可原因,AWS在桌面领域仍然与Windows Server牢牢绑定),或者用户也能自带Windows许可证。新方案还能与Active Directory相集成,借此将现有虚拟桌面使用的策略直接照搬到WorkSpaces当中。
在采访当中,AWS终端用户计算总经理Muneer Mirza做出了明确暗示,称Core目前与VMware的合作只是起点,未来肯定还会与其他VDI供应商携手。这完全可以理解,毕竟思杰已经将自家VDI产品纳入微软Azure虚拟桌面,AWS肯定不想居于人后。
Mirza还暗示称即将公布新的技术消息,能在网络出现故障时保证虚拟桌面更具弹性。
很明显,对于上一代VDI硬件即将进入清退期的客户,WorkSpaces Core是通往多云虚拟桌面时代的方便之门,帮助他们从设备复制中解脱出来。
如果云巨头真能获得成功,那么思杰将进一步扩大产品的客户受众,VDI与桌面即服务的结合也将真正对超融合基础设施供应商们构成重大挑战。到那个时候,也许以VDI为导火索,超融合的最后一块阵地也将在云计算的炮火下失守。
好文章,需要你的鼓励
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。
这项研究探讨了多模态大语言模型在增强推理能力时出现的视觉幻觉问题。研究发现,模型生成更长推理链时,对视觉信息的关注减少,导致幻觉增加。研究者提出RH-AUC指标和RH-Bench基准来评估模型在推理与幻觉间的平衡,发现较大模型表现更好,纯强化学习训练优于监督微调加强化学习,且训练数据的类型比数量更重要。这些发现对开发既具推理能力又保持视觉准确性的AI系统具有重要意义。
这篇研究探讨了大语言模型在自动推理任务中的不确定性问题。研究者提出,模型生成形式规范时的概率不确定性不是缺陷,而是宝贵的信号源。通过引入概率上下文无关文法框架分析SMT-LIB程序分布,他们发现不确定性信号具有任务相关性(如逻辑任务中的语法熵AUROC>0.93)。他们的轻量级信号融合方法能减少14-100%的错误,仅需最小弃权,将大语言模型驱动的形式化转变为可靠工程学科。研究揭示当模型正确理解逻辑关系时会产生稳定的语法模式,为判断何时信任模型提供了可靠指标。
来自沙特阿拉伯王子苏丹大学和阿尔法萨尔大学的研究团队开发了GATE(General Arabic Text Embedding)模型,这是一套专为阿拉伯语设计的文本嵌入系统。该研究结合了套娃表示学习和混合损失训练方法,解决了阿拉伯语特有的语义处理挑战。GATE模型在MTEB基准测试的语义文本相似度任务中表现卓越,比包括OpenAI在内的更大模型高出20-25%,同时保持了多维度(768至64)的高效表现。研究通过详细的错误分析揭示了模型在不同相似度水平上的表现特点,为阿拉伯语NLP领域提供了新的研究方向。