至顶网软件与服务频道消息: 亚马逊网络服务公司正在为那些承诺长期使用该公司平台的企业用户简化基础架构的采购工作。
这家云计算巨头于周三晚上推出了“Savings Plans”,在这种购买模式下,如果客户提前一年或三年购买算力,就可以享受大幅的折扣。AWS已经通过其Reserved Instances提供了此类折扣。但是,采购Reserved Instances可能会很复杂,因为它需要企业仔细计划自己的支出,才能够通过批发价获得最大的收益,而Savings Plans旨在减轻这项工作的复杂程度。
该计划的重点在于客户可以获得可转移的折扣,他们可以将其用于不同的AWS实例。企业在如何使用折扣方面的灵活性取决于计划。
AWS将第一种选择称之为“Compute Savings Plan”,企业通过承诺长期使用获得最高66%的折扣。Compute Savings Plan可以应用于各种实例,无论这些实例运行在哪个数据中心,属于哪个实例系列,用的是何种操作系统。比如说,如果一家企业预订了三年的实例,而AWS在第二年发布了更好的虚拟机系列,那么管理员们就可以非常轻松地转移到比较新的硬件上,并且继续享受同样的折扣。
第二种选择是EC2 Instance Savings Plan。它可以节省高达72%的费用,但是客户获得的折扣只能够用于他们在购买时选择的实例系列,并且只能够用于一个AWS数据中心区域。
云基础架构支出可以获得最高72%的折扣,这确实可以节约成本,但是Savings Plans只是AWS上性价比排名第二的选择。排名第一的是Spot Instances。这些虚拟机可以运行在该供应商数据中心里未使用的基础架构上,可以获得最高90%的折扣,但是这个选项有一个陷阱:如果AWS需要使用这些基础架构,那么只会提前两分钟通知你。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。