微软对旗下Azure SQL数据库服务再加码,为其配置英特尔的“冰湖”至强和AMD的“米兰”Epyc服务器芯片组。
微软本周开始公开预览旗下的标准系列(Standard-series,之前名为Gen 5)配置的数据库和弹性池,弹性池现在可以扩展到128个vCores和625GB的内存,比以前最大80个vCores和415GB的内存有了一个飞跃。
Azure SQL数据库首席产品经理Scott Kim表示,该扩展符合用户对标准系列服务中更大可扩展性的需求。
Kim在一篇博文中表示,“更多的内核可以提高工作负载吞吐量,而较新的芯片组则可以提高单核性能。”
128-vCore计算规模是在英特尔的Xeon Platinum 8370C和AMD的Epyc 7763v芯片组上运行。新规模里的数据库和弹性池可以提供的最大输入输出操作/每秒(IOPS)分别为327,680和409,600。微软表示,这是所有Azure SQL计算规模中最高的IOPS。
企业可以利用弹性池管理和扩展那些对使用有不可预测需求的多个数据库。弹性池里的所有数据库都处于单一服务器上及共享各种资源,理论上允许SaaS开发者找到最便宜的方式获取最佳性能。
而同时,通用数据库和关键业务数据库及弹性池的并发处理者(Worker)数量也增加到12800个(用于数据库)和13440个(用于弹性池)。
企业可以创建一个新的128-vCore数据库和弹性池,或是将现有的Azure SQL数据库扩展到128-vCore规模。
目前,128-vCore公开预览版只支持10个区,包括美国的4个区,欧洲的2个区以及加拿大、澳大利亚、日本和英国各一个区。Kim还在博客里表示,明年年初将提供128-vCore计算规模区域冗余的支持。
此外,Gen 5硬件更名为标准系列只适用于Azure Portal和相关文档。据微软称,对于使用REST API或Arm模板创建SQL数据库的开发者来说,现有的脚本仍然有效。
微软还为Azure SQL Hyperscale数据库新的高级系列硬件提供了更多的处理器,新的高级系列硬件是为计算和数据密集型工作负载设计的。这些配置的预览版已经发布。
Kim在博文里表示,与128-vCore标准版一样,高级配置(包括超大规模和内存优化系列,也在预览中)基于英特尔的至强8370C和AMD的Epyc 7763v芯片,但提供“比当前标准系列……硬件产品更显著的高性能和可扩展性”。
高级系列提供内存优化。关键区别是每个内核心配备了10.2GB的内存,是其他高级超大规模产品的两倍,每个实例配备了830GB的内存,价格则高了40%。
Kim在博文里称,“由于增加的内存和较低的价格,高级系列内存优化选项是Azure SQL数据库中M系列硬件的一个很好的替代品,后者将于2023年9月退役。”
微软也在试图使每个vCore的价格与标准系列相似,进而提高迁移到高级系列超大规模配置的吸引力,Kim在博文里称“迁移到高级系列是绝对可取的做法”。
Kim在博文里表示,有个样本演示运行一个类似TCPP工作负载的HammerDB基准测试,结果表明高级系列超大规模硬件在类似价格的前提下提供了大约20%的性能改进。
美国的三个区、加拿大和英国各一个区提供两种高级系列预览版配置的支持。高级系列预览版区域冗余、标准系列公开预览版区域冗余以及Azure SQL数据库的维护窗的支持都要等明年。
 0赞
0赞好文章,需要你的鼓励
 推荐文章
                    推荐文章
                  虽然ChatGPT等AI工具正在快速改变世界,但它们并非无所不知的神谕。ChatGPT擅长"令人信服的错误",经常提供有偏见、过时或完全错误的答案。在健康诊断、心理健康、紧急安全决策、个人财务规划、机密数据处理、违法行为、学术作弊、实时信息监控、赌博预测、法律文件起草和艺术创作等11个关键领域,用户应避免完全依赖ChatGPT,而应寻求专业人士帮助。
这项由哥伦比亚大学研究团队完成的突破性研究首次揭示了AI系统自我改进中的"效用-学习张力"问题:系统追求更好性能时会增加复杂度,但过高复杂度会破坏学习能力。研究建立了学习边界定理,提出双门控制机制,为AI安全自我改进提供了理论基础和实用方案,对确保AI技术长期安全发展具有重要意义。
微软重启三里岛核反应堆的协议确认了AI革命与能源现实主义的融合。亚马逊和谷歌也达成类似协议,共同押注核能为AI未来提供最可行的动力路径。到2030年代,数据中心用电量可能媲美大国水平。国际能源署预测全球电力需求到2050年将增长六倍。核电厂90%的容量因子使其独特适合数据中心需求。世界核协会估计,当前全球398GW核能产能必须在2050年前至少增长两倍。
这项由Reactive AI公司Adam Filipek主导的研究提出了反应式变换器(RxT),通过事件驱动架构和固定大小记忆系统,将传统聊天机器人的对话成本从平方级降为线性级,使长期对话成本降低99%以上,同时实现恒定响应速度。实验证明即使12M参数的RxT也显著优于22M传统模型,为高效对话AI开辟新路径。
 
             
                 
                     
                     
                    