ZD至顶网软件频道消息:微软发布第一波新闻稿后,业内人士发现微软又正式宣布长期来一直与英特尔、AMD和两个ARM厂商(高通和Cavium)有合作,以支持奥林巴斯(Olympus)项目,奥林巴斯项目是微软提供给开放计算项目的下一代云硬件设计。微软还宣布了一直都与多家ARM供应商(包括高通和Cavium)在洽谈将Windows服务器移植到ARM,但只供微软内部数据中心用。
网上可以找到微软在开放计算项目峰会的演讲录音(https://www.youtube.com/watch?v=0hcpUFMXGM8)。
笔者曾就微软本周发布的消息提了一些问题。下面是微软发言人的回答。
问:ARM版Windows服务器会提供给外部合作伙伴和客户用吗?如果会的话,会在什么时候?
答:ARM64版Windows服务器仅供内部使用,是用于评估Azure服务在ARM版服务器上的性能。微软目前未能提供更多关于未来的路线图计划的资料。
问:微软之所以在旗下的数据中心服务器使用ARM版Windows服务器(而不是Azure或Azure堆栈)是因为Azure和Azure堆栈不能运行ARM(只能运行英特尔)吗?
答:Azure现在是在Windows服务器上运行,所以此举可以对ARM64即平台用于一些Azure服务的交付进行内部评估。
问:Cavium在今天发布的消息里的角色是什么?
答:Cavium开发的主板可兼容奥林巴斯项目,微软可以在旗下的数据中心部署奥林巴斯项目。
问:微软为什么将Windows服务器放在ARM上?是因为ARM比英特尔处理器的功率效能更好吗?是因为微软认为数据中心这一块不要仅限于一家芯片玩家会更好一些吗?是对英特尔的数据中心计算表现的不满意吗?是因为所有以上的原因/以上原因没一条沾边?
答:多ARM服务器供应商的健康生态系统是要确保能在内核和线程计数、缓存、指令、连通性选项及加速器等技术功能方面保持 积极的开发。另外, ARM即成的开发人员和软件生态系统也可以受益于高端手机软件栈。
问:微软设计的奥林巴斯项目可以为用户提供不同的服务器设计选择;如英特尔至强(Skylake)带英特尔FPGA或英特尔Nervana;AMD Naples等等。微软还称要与高通和Cavium一起“推进ARM64云服务器与奥林巴斯项目的兼容”。这是否意味着奥林巴斯服务器也可以在其主板上使用ARM处理器呢?
答:由高通和Cavium设计的ARM64兼容奥林巴斯项目。
问:微软博客上说ARM服务器可以用于内部云应用程序,如搜索和索引、存储、数据库、大数据和机器学习工作负载。这是否意味着微软在ARM服务器上只运行 这些工作负载而在英特尔或AMD服务器上运行其他Azure工作负载呢?
答:微软正在积极评估ARM服务器,以推动旗下数据中心内部云服务的创新,目前没有进一步的资料分享。
问:微软技术研究员Jeffrey Snover的推特文把我都弄糊涂了。如果只是微软自己使用,微软在ARM上运行Windows服务器之举何以是以客户为中心呢?
答:微软在内部数据中心的创新能提高性能和效率,最终受益的是消费者。
笔者认为微软在回答为什么与ARM供应商合作时的说法很能说明问题,基本上证实了此举主要是为了向服务器芯片完全主导供应商英特尔施压的看法。
笔者还注意到微软官员在回答我的第二个问题时说了在Windows服务器上运行Azure,这令我有些困惑,因为微软官员常常称(至少对我是这样说的),Windows服务器和Azure不是一回事。
我假定这里的“运行Windows 服务器的Azure”只是Windows服务器核心/OneCore构成Azure说法的简短版。因为Windows服务器是Azure的关键构件、Windows服务器上可在ARM上运行意味着基于ARM的硬件有朝一日可以在生产线上用于(至少有这个潜力)数据中心,包括Azure数据中心。
在笔者收笔前微软官员又有话说。前文提到的发言人的声明:
“微软Azure 可在Hyper-V上运行,客户购买的Windows服务器操作系统里就有Hyper-V。这意味着我们在持续投资改善世界上数一数二的分布式虚拟环境时,客户的数据中心是会受益的。我们为部署Azure提供的Windows服务器安装选项就是服务器核心安装选项。”
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。