在Oracle CloudWorld大会将于下周于拉斯维加斯举行之际,Oracle和微软宣布推出Oracle Database@Azure。
据悉,这将直接访问在Oracle Cloud Infrastructure(OCI)上运行并部署在微软Azure数据中心的Oracle数据库服务。
此次合作还向Oracle客户开放了微软的Azure OpenAI服务。
微软公司董事长兼首席执行官萨提亚.纳德拉(Satya Nadella)表示:“我们与Oracle扩大合作,将使微软Azure成为Oracle之外唯一运行Oracle数据库服务的云提供商,并帮助我们的客户开启新一轮云驱动的创新浪潮。”
Oracle的董事长兼首席技术官拉里.埃里森(Larry Ellison)表示:“大多数客户已经在使用多种云。微软和Oracle一直在共同努力,使这些客户能够轻松地将Azure服务与最新的Oracle数据库技术无缝连接起来。”
“通过在Azure数据中心配置Oracle Exadata硬件,客户将体验到最好的数据库和网络性能。”
Fidelity Investments的企业数据主管Mihir Shah表示:“今天的声明展示了行业领导者微软和Oracle是如何将客户利益放在首位,并提供合作解决方案,使Fidelity这样的企业能够为客户提供一流的体验,并以最少的停机时间满足大量的合规性和监管要求。”
百事公司高级副总裁兼全球首席技术官Magesh Bagavathi也发表了自己的看法:“数据是所有企业的命脉,而云技术是分析数据的最佳方式,让洞察力变得具有操作性。”
“利用Oracle Database@Azure在云中运行关键任务系统和相关数据的能力为我们的全球运营提供了规模化的战略优势。”
沃达丰公司首席技术官Scott Petty在英国纽伯里(Newbury)表示:“Oracle和微软提供的这项新服务使我们能够以更快的速度和更高的成本效益为客户提供创新和差异化的数字服务。”
Oracle将直接在微软的全球数据中心内运营和管理这些OCI服务,首先从北美和欧洲地区开始。
埃里森在宣布两家供应商联合行动的活动上表示:“(我们)将Oracle的硬件和软件,在Oracle Cloud中使用的所有Oracle Database硬件以及Oracle Cloud中使用的所有数据库软件都实际转移到了Azure数据中心。”
“我们正在让客户能够方便经济地迁移可能存储在Oracle数据库中的海量数据,以训练OpenAI模型。”
向云端迁移的现状
埃里森接着谈到了Oracle工作负载的云迁移状况。他表示:“大部分数据还没有从内部迁移到云端,但是它们会的。”“我们正在努力加快这一进程,让客户更容易地将整个数据中心的工作负载迁移到云端。”
供应商表示,扩大合作将提供一个“在Oracle Database和Azure服务之间简化云采购和管理的精简环境。”
他们还表示,Database@Azure “这项新服务旨在消除客户在采用多云架构时面临的最大挑战,包括管理脱节、孤立的工具以及采购流程太复杂。”
客户将能够利用现有的Azure协议,通过Azure Marketplace购买Oracle Database@Azure。他们还可以使用现有的Oracle数据库许可证优惠,包括自带许可证(Bring Your Own License)和Oracle支持奖励计划。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。