Oracle近日推出了最新一代Exadata处理器,并宣布基于Oracle Exadata Cloud Infrastructure X9M设备的计算服务现已在Oracle Cloud Infrastructure中提供。
Oracle表示,运行于Exadata基础设施上的Oracle Autonomous Database Service在性能、吞吐量和容量上有显著提升,而且成本不会相应增长。企业组织可以利用该平台将大量事务型处理、分析和混合数据库工作负载整合到单个云服务中。
该系统配置了AMD最新一代微处理器,具有64个核心,让Exadata Cloud Infrastructure X9M能够扩展到8064个虚拟CPU,较X8M平台增加了2.5倍。此外,还具有高达3.1 PB的未压缩数据库容量,也较之前增加了28%。
Oracle表示,内部网络速度提高了80%,应用服务器客户端带宽增加了一倍,SQL查询延迟低于19微秒,IPOS增加了87%。扫描速率也都提高了80%,达到每秒2.88TB。
Oracle宣称性能最佳
Oracle宣称X9M的I/O延迟低于19微秒,这比竞争对手AWS的RDS高25倍,比微软的Azure SQL高50倍。据Oracle称,X9M最多可容纳64台存储服务器,比单个Azure SQL实例快137倍,比Amazon RDS实例快384倍。
Oracle是在去年9月推出X9M设备的,最初是用于本地部署。随着云服务的推出,“无论客户选择在哪里运行他们的应用,架构上都是相同的,”Oracle数据库和自治服务全球副总裁Steve Zivanic表示。
Oracle产品管理副总裁Ashish Ray说:“将应用迁移到云端可将故障中断降至最低水平、没有停机时间、不需要更高应用和数据模型。”
目前,Oracle正在迅速扩大云服务范围,已经覆盖了全球37个地区,今年计划再增加7个地区。此外,Oracle还拥有11个“Azure Interconnect”区域,让微软客户可以通过Azure访问Oracle数据库服务。
横向和纵向扩展
该服务可进行横向和纵向扩展,让客户能够启用核心以处理更多计算密集型的操作,还可以逐步将服务器添加到集群中以适应更大的数据库。Ray说,每个新增的服务器最多可以添加126个计算核心、1.3TB RAM、以及1个50 Gb的OCI结构链接。每个存储服务器都支持51TB数据库存储,并采用了英特尔24核Ice Lake处理器。Ray说,使用Oracle Application Clusters可实现几乎是线性的可扩展性。
Oracle还特别强调了在价格上的优势,称尽管扫描速度提高了180%,处理核心增加了21倍,但从8XM升级到9XM服务的过程中,客户费用并未增加。Ray表示:“我们对存储服务器、数据库服务器和网络进行深度工程设计,以大幅提升性能。”
其他方面的提升还包括CPU容量增加了40倍,内存增加15倍达到44TB,网络速度提高32倍,达到每秒1.6TB,存储服务器的SQL处理核心、内存和缓存增加了21倍,数据库大小增加了27倍,达到3.27PB。
Exadata软件方面的增强包括通过重启支持区块链表、存储索引和列缓存持久性、软件和固件更新加速、解密和解压缩算法加速等。Ray说:“持久缓存意味着即使关闭存储服务器进行升级,再次重新启动时缓存仍然存在。”
他说,升级至下一代Exadata很简单,“你在X9M上创建一个Data Guard副本,然后切换就可以了。Data Guard在内存深层将二级数据库与生产数据库保持同步,因此数据通过网络实时传送到接收服务器,并提供数据保护,”然后,客户就可以重启采用新的服务了。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。