ZD至顶网软件频道消息:甲骨文(Oracle)将在近日内发布数据库 12c R2,有分析师大胆认为该软件将刺激未来几年的收入增长。当然也存在变数,开源数据库选项以及诸如亚马逊网络服务和微软 Azure 等产品可能引入不确定因素。
Jefferies分析师John DiFucci 在一份调研文章里表示,甲骨文的数据库业务将遭遇拐点。该数据库是甲骨文的老牌产品,尽管各种关于云的讨论比比皆是,但该数据库对公司未来的发展仍十分关键。
DiFucci 写道:
我们认为即将发布的12c R2 ORCL数据库发力后可能带来8%到9%的年收入增长,如新业务全部是 PaaS,则会带来2%到3%的增长。累积 PaaS的增长更快,可望在6年内超过同等许可证和维护的贡献。
数据库 12c以及其 R2修正版通常是企业升级的发令枪,该数据库以其在内存选项和多租户功能而闻名业界。可以肯定的是,诸如Salesforce的软件即服务供应商的部分业务是建立在甲骨文数据库基础上。
难题之一:Salesforce 手里有诸如 PostgreSQL数据库的其他开源选项。Salesforce收购的许多公司都是在 AWS 上运行或是运行开源数据库选项。再者:甲骨文的R2 版会首先推出云版,本地部署用户将在今年后半年拿到这个版本。
DiFucci 估计,甲骨文客户会将数据库 12c 许可证和平台即服务订阅匹配在一起混合使用。DiFucci 的模型可圈可点,但以下几点仍有待观察:
l 甲骨文客户会扩大甲骨文数据库的使用或是弃掉它呢?
l 云数据库选项的可行性会越来越大吗?
l 数据库 12c R2会增加甲骨文的钱包份额或是只是简单地维护客户基数呢?
换句话说,此次的甲骨文升级周期和以前数据库部署不一样。首先,更多的甲骨文收入将基于订阅。此外,甲骨文的竞争对手比过去多了。SAP利用HANA平台挖走甲骨文数据库客户。SAP和甲骨文之战极有可能是昨日之战。
例如,教育公司皮尔逊(Pearson)背甲骨文而去,用上了基于 MySQL 的开源堆栈和亚马逊极光数据库。皮尔逊现在提供一个测试平台,教育机构可用该平台将学生推至新的水平。皮尔逊业务在测试阶段猛增,而学校一放暑假就放缓了。
皮尔逊性能工程师Jeff Schmidt系统地令自己的公司脱离了甲骨文。施密特表示,"我们曾拥有数据中心和甲骨文重头堆栈,但约 4 年前我们看到很明显需要大动手脚。我们必须从数据中心退下来,启用云和开源。甲骨文许可证成本当时要了我们的命。"
Schmidt的团队开始时打造了在AWS EC2 上跑的MySQL 栈。皮尔逊后来想过用诸如RDS的AWS初始数据库产品,但觉得它在满足各种要求方面差了一点点。皮尔逊后来退出甲骨文时,又重新评估 AWS 的数据库动向。极光对皮尔逊有吸引力。Schmidt表示,皮尔逊不单是在计算方面开始将自己的产品迁移到AWS。
Schmidt表示,"我们希望在明年内将我们大多数的EC2 空间迁移到极光里,会不会将全部EC2 空间迁移到极光里还很难说。"皮尔逊的甲骨文许可证是在企业层面上谈的,所以Schmidt的部门每年要报告使用量。Schmidt表示,"每年我们报告的是小使用量,我们的业务低到无。"
Schmidt并非个案,甲骨文 数据库的使用量下降是很难量化的。但有一件事是确定的。由于迁移到甲骨文竞争对手那里的不少工作负载其实并不在上一次数据库升级周期的范畴里,预测数据库12c R2销售的模型应在一定程度上将市场份额损失元素考虑在内。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。