ZDNet至顶网软件频道消息: 甲骨文表示,其内存数据库技术不仅能在60天内交付,而且这项技术将在12个月内击败所有竞争对手。
甲骨文的数据库内存选件,与其他老牌竞争对手产品(如SAP HANA)一样,旨在加速以分析为驱动的工作负载,每秒可处理数十亿的数据值。
“竞争对手的产品要么要求更改应用,要么数据库功能有限,而甲骨文新的技术对于现有采用甲骨文数据库技术的应用是透明的”,甲骨文产品管理副总裁Time Shetler这样表示。
他说:“我们认为将这种选件对现有运行在甲骨文数据库上的应用透明,这一点很重要,因为今天全球有超过30万的机构组织采用甲骨文数据库。”
“因此,我们希望有一个强大的选件与像SAP这样在收购Sybase之前并不真正从事数据库业务的对手对抗。我们预计,在一年之内会有超过其他所有竞争对手总和的企业运行在甲骨文内存选件上。”
分析公司Quocirca高级研究院Clive Longbottom表示,甲骨文对于SAP HANA的回应有些姗姗来迟。他说:“现在他们真的需要对SAP HANA作出回应了。甲骨文推出10c有相当长一段时间,10c是一种内存能力,但是与HANA相比,它让甲骨文看上去有些没有说服力。”“现在有这么多的公司都在利用服务器端SSD和大型DIM阵列加强内存分析能力,甲骨文看起来有些力不从心。”
甲骨文在2005年收购了内存计算公司TimesTen,“在当时内存的成本是相当可怕的,因此那些财力雄厚的企业能够买得起的解决方案”,Longbottom这样表示。
现在甲骨文还在出售这种技术,但是与甲骨文多年来一直在开发的、即将发布的架构是截然不同的。
甲骨文的Tim Shetler表示,数据库内存选件即将作为12.1.0.2的一部分发布,价格还未确定,它提供了一种双格式的体系架构,允许在同一个数据库上运行高级分析和交易处理工作负载。“你可以在用于生产交易处理工作负载的数据库上同时运行大量实时分析。”
“所以,能够跨所有工作负载共享通用数据库,这意味着客户将不在需要做多个生产数据的拷贝,这样他们运行针对它的报告,通常被成为数据集市。你可以在一个通用系统上做所有这些事情,避免拷贝延迟,确保你正在分析的数据是快速被快速处理的。”
Shetler表示,甲骨文将它的数据库内存选件视为最完整的部署,因为它不仅仅是是一种能够配合现有甲骨文数据库功能使用的内存数据库。
“因为他们被集成到了一起,所以我们实际上拥有了一个完整的数据库——不仅仅是一个高速内存列式存储库,而且也是你希望从数据库中获得的全部基础设施,以确保交易完整性、安全性和强健性。”
“如果你将其与SAP HANA对比,他们实际上构建的是一种很快速、但是仍在试图完善其他相关数据库功能的内存数据存储库。”
Shetler表示,甲骨文的数据库内存选件传承了甲骨文数据库30多年的开发经验。
“所有特性、功能和耐用性——这些都是围绕甲骨文数据库构建的,被植入了甲骨文内存选件中。这个数据库内存本身就是市场中其他甲骨文部署非常类似的。”
“如果从一个完整的数据库系统角度审视它的话,那么甲骨文会是在开发方面处于领先地位的。”
Shetler表示,甲骨文具有优势的其他领域,是在这种内存技术可使用的数据库大小方面。
他说:“很多实施部署要求你正在使用的数据库必须预装所有到内存中。”
“尽管内存容量越来越大,而且越来越便宜,但仍然意味着大型数据库——例如数据仓库,可以是非常大的或者大数据主导的数据集——可能难以适应内存,因为不可能或者不那么可能配合内存数据库技术使用。”
“我们多年来一直在开发多种途径让大型数据库能够得到满足。有了这种内存选件,你现在可以将内存数据分散到多个数据库中,因此可以在内存中有一个更大规模的数据库。”
自从甲骨文首席执行官Larry Ellison在2013年的OpenWorld大会上公布了这种内存技术以来,甲骨文已经向其中添加了改善的容错特性。
“我们正在做的事情是,如果你正在Oracle RAC集群中的一个上运行数据库和数据库内存选件——换句话说,如果你正在将数据分散到多个数据库服务器的内存区域中——那么你可以选择请求这个数据以容错的方式得到保护。”
“这将确保每一块数据都在至少一个其他数据库服务器的内存中进行了拷贝,这样如果其中一个数据库服务器发生故障,那么RAC软件将自动检测到故障,将应用转移到其他保存了故障服务器数据拷贝的数据库服务器上,性能不会受到影响,就像从未发生故障一样。”
“所以,我们不仅具有完整的应用透明度,完整的数据库功能透明度,而且如果集群中发生任何故障的时候,会有故障转移和高可用性的完整透明度。”
甲骨文的工程系统以及其他出货系统将提供这个数据库内存选件,而且所有Oracle 12c可以运行其上的系统都支持这个选件。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。