这款产品Amazon Aurora I/O-Optimized,于周四首次亮相,预计可为某些工作负载节省高达40%的成本。
AWS关系数据库引擎副总裁Rahul Pathak表示:“我们通过 Aurora I/O-Optimized为客户的大规模I/O密集型应用提供了巨大的价值,并为那些希望把要求最苛刻的工作负载迁移到Aurora和云端的客户提供了更好的选择。”
Aurora是一种托管的关系型数据库,企业可以使用它而无需维护底层基础设施。Aurora与另外两个主流的关系型数据库MySQL和PostgreSQL相互兼容,也就是说,企业可以把为MySQL和PostgreSQL编写的应用切换到 Aurora,而无需进行重大的代码更改。
AWS于2014年发布了Aurora的初始版本,如今该服务已经被数十万家客户采用,其中包括许多财富500强企业。
Aurora I/O-Optimized是Aurora服务的最新版本,主要面向那些执行大量数据I/O操作的应用。
Aurora标准版是根据客户部署数据库的计算实例的数量和类型,以及他们使用的存储容量来计费的。此外,客户还需要为针对应用每个I/O操作进行付费。
该数据库针对新Aurora I/O优化的新版本则有不同的定价模型。它与标准版本一样,是根据客户使用的计算实例的数量和类型以及相关的存储消耗进行计费,但是用户无需为I/O操作付费,这使得I/O密集型应用运行成本更低。
AWS表示,该产品可以节省大量资金。如果I/O操作占与应用相关的数据库费用的四分之一以上,那么Aurora I/O-Optimized承诺最多可降低40%的成本。
该产品还可以让客户更轻松地预测云费用。当数据库按I/O操作计费的时候,应用I/O请求的意外增加可能会导致成本超支,而Aurora I/O-Optimized通过消除与I/O操作相关的费用降低了这种风险。
企业可以通过在Amazon EC2预留实例上运行Aurora I/O优化来进一步降低成本,这些实例提供比标准虚拟机更低的价格以换取长期使用的承诺。
据AWS称,企业不仅可以使用Aurora I/O-Optimized支持新的关系型数据库集群,还可以为现有部署企业该服务。客户可以每30天将现有部署切换到Aurora I/O-Optimized,该任务不需要管理员重启数据库实例,从而有助于避免停机。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。