据悉,微软正在开发旗下的Azure 栈混合计算家族的新成员,新成员的代号为Azure Stack“Fiji”。据笔者的联系人称,Fiji旨在令用户能够将Azure放在本地云运行,本地云由公共Azure管理并能够以微软服务器机架形式直接提供给用户。
微软是顶级云供应商里将混合计算支持作为自己战略关键部分的第一家。不过自从微软自2017年7月开始销售Azure Stack以来,客户对混合的期望已经改变。AWS最近通过AWS Outposts进入混合云战场,谷歌云则利用Anthos进入。微软正开发相应的新混合云功能。
据了解,Azure Stack Fiji的主要对标的是AWS自2019年12月开始提供给普通用户的亚马逊AWS Outposts产品。AWS对Outposts的描述如下:“Outposts是一项完全托管服务,Outposts服务将AWS基础设施、AWS服务、API和工具扩展到差不多所有的数据中心、合用空间或本地设施,实现了真正一致的混合体验。AWS Outposts的理想工作负载是那些要求以低延迟访问本地系统、本地数据处理或本地数据存储的工作负载。”而微软Azure Stack Fiji的目标将重点放在为用户提供低延迟功能上,低延迟功能可以通过Azure架构(大致是通过Azure Arc)进行完全管理,而且使用微软用于运行Azure的相同硬件。
Azure Stack Hub是目前微软混合计算的核心,少数微软合作伙伴经过认证的服务器硬件上作为设备预先安装了Azure Stack Hub。要实现这一目标并非易事。微软必须修改旗下Azure服务的运行方式,还要考虑其安全模型的工作方式及调整微软对配置和管理其硬件方面的取态。笔者不太确定微软在这方面能走多远。
如果你研究过微软代号,可能就会发现,这实际上不是微软第一次用“Fiji”作代号。希望这次用Fiji作代号的结局不会太差。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。