“塞进冰箱”的过程常常被用来形容某些事情实际操作起来要比口头描述更复杂。同样,对于企业来说,做好人工智能最根本的问题是,如何通过人工智能帮助企业进行变现。而甲骨文有着足够强大的底气向客户证明,“把大象塞进冰箱”并非一件难事。
作为全球最大的企业级软件公司,甲骨文在数据领域的工作已经有很多年的历史。据甲骨文公司副总裁及中国区董事总经理吴承杨介绍,目前甲骨文在全球拥有44个云数据中心,通过与英伟达合作,可以为客户提供超级集群,支持RDMA,以确保整个云集群的弹性。
这样的自信来自于甲骨文紧紧抓住了数据和云这两个非常热门的领域。根据甲骨文2023财年第四季度数据显示,2023财年总营业额首次达到了500亿美金。第四季度云收入(IaaS+SaaS)达44亿美金。“甲骨文的双引擎:一个是数据库,一个是云,但是我们最核心的DNA是创新。”吴承杨说道。
甲骨文公司副总裁及中国区董事总经理吴承杨
双平面:数据库的另一个维度
中国市场对Oracle Exadata数据库一体机的用量是非常大的。但同时,中国客户除了选择Oracle数据库,还愿意选择第二家数据库,包括开源或国产数据库。为此,甲骨文根据企业业务需求升级“数据库双平面”的技术,提供了关键的业务稳定性支撑。
这一方案的目标并非解决灾难性问题,而是最大化整个平台的高可用性。甲骨文公司中国区技术咨询部高级总监李珈表示,甲骨文的实时数据同步技术Oracle GoldenGate通过业界众多实践检验,支持上千种数据源,可在云上云下都提供支持,是业界领先的数据库解决方案。除数据同步外,还包括数据库验证功能,如比对不同数据库之间的差异值,解决数据不一致问题。
甲骨文公司中国区技术咨询部高级总监李珈
甲骨文也致力于提供更广泛的支持,例如基于硬件能力处理的解决方案,可达到99.999%的支撑能力。这一方案已在中国的场景下得到广泛应用,许多大型开发商已符合自身的开发规范,能够做到数据库的中立。
最新版本的Oracle数据库23c在早前版本的基础上增加了300多项特殊功能。其中,True Cache能力可提供始终一致的内存内高性能缓存,无需第三方缓存解决方案。JSON关系的二元性和JavaScript存储过程也让开发过程更为全面和灵活。
甲骨文的新数据库技术还包括对Kubernetes的支持,SQL防火墙的增强,使用机器学习增强的实时统计,以及基于PDB的只读备库。23c版本中的这些新功能,如基于PDB的恢复,都是客户期待已久的解决方案。
甲骨文的数据库技术的创新与发展展示了对业界需求的深刻理解和持续的技术领先。通过不断推进和优化,甲骨文将继续为客户提供全面的、可预期的业务保障能力,满足不断变化的市场需求。
技术升级,云的扩展
在全球范围内,甲骨文的云区域已达到44个。甲骨文公司中国区技术咨询部高级总监嵇小峰表示,特别是在中东和南美地区,甲骨文相较于其他竞争对手具有明显优势。
甲骨文公司中国区技术咨询部高级总监嵇小峰
从全球范围来看,数据合规性的要求越来越高,在许多地区,敏感信息和数据不得离境。甲骨文采取 “一个国家,两个云区域”的模式,可以很好的满足合规性要求;同时这种模式还能起到一个容灾作用,确保企业业务的连续性。
甲骨文在多云支持方面也展现了其独特之处。随着越来越多的客户选择使用多种云,甲骨文与微软Azure在全球12个区域建立了高速互联,实现毫秒级的网络延迟。而且,双方之间的互联互通并不需要企业支出专线的费用,为客户提供了很高的性价比。
此外,为了帮助企业在其云端环境中平衡价格和性能,全新OCI Compute E5实例采用第四代AMD EPYC™处理器,这种灵活实例支持客户按需分配内核和内存,无需支付未使用计算资源的额外费用。机型类型丰富,还有标准实例,非常适合web服务器和应用服务器等典型企业应用。其中的Flexshape特点受到客户的欢迎,允许灵活搭配CPU和内存,具有非常好的性价比,同时支持HPC高性能运算。
在数据存储和分析方面,甲骨文在中国发布了MySQL HeatWave Lakehouse。结合在此前发布的业内第一个支持混合应用HTAP的MySQL Heatwave,实现了更快速的查询处理、数据加载速度和集群预配时间。
HeatWave可以扩展到512个节点,运算全部在内存当中,整体结构高度并行化,查询速度非常快。MySQL HeatWave Lakehouse还支持各种文件格式,自动化数据采样和表生成,完全并行的处理速度。
在今天的数据驱动时代,数据库和云技术的能力已成为推动经济增长和促进全球互联互通的关键因素。通过不断创新和深化全球合作,甲骨文的双引擎策略塑造了一种强大、灵活且适应性强的技术架构。这些技术的融合和创新不仅满足了现今复杂多样的商业需求,更为未来的科技前沿铺就了坚实的基础。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。