2018年10月24日-27日,2018微软技术暨生态大会(Microsoft Tech Summit)在上海世博中心举行。本次大会邀请了众多知名企业家、行业翘楚、创业先锋与技术大咖,围绕当下最前沿的热点话题和趋势,展现了微软的生态能力和技术实力,分享了行业最新的成果实践。
在会上,微软全球研究院首席项目经理Ben Cutlur在会上进行了主题演讲,揭秘了微软的“海底数据中心”。
以下为Ben Cutlur现场演讲实录:
微软希望能够在更加严苛的条件之下布局数据中心,也有很多理由让我们这样去做,因为,我们发现全球数据中心的数量如雨后春笋般快速增长。
今天,我们无论做什么,都会对未来的数据中心起到的作用,能够提供给客户更新的服务。所以,微软在Natick建立一个全新的数据中心,把它加了保护壳(保护壳是钢铁材料)放到水下。相比在陆地上的数据中心,Natick数据中心可以把服务器产生的热量通过海水制冷然后排到水中。数据中心的生产方式通常是内嵌式,可能会花费18个月到两年的时间才可以完成,如果是搭建这样的海底数据中心,只需要90天,无论部署在哪一个国家都可以给我们的客户提供服务。
速度是关键,如果我们是在法国生产,30天之后就数据中心已经在苏格兰的海域。之所以选择苏格兰这个地区,因为它的海水流动的速度可以是每小时4米,甚至是每小时10米,所以,对游泳爱好者来说这片海域不大好,但是对微软的数据中心来讲却是很好的海洋测试条件。
选址也非常关键,主要选择可再生能源,比如风能,潮汐能。我们把数据中心放到了一个驳船上,船在水中行驶,很幸运出海那一天整个海面是很平静的。我们使用了一个特别的机器人潜到海底,机器人潜到海底之后就开始寻找线缆,找到网线后把它带到水面上,然后插到数据中心上。而这个数据中心已经有一个月没有运行了,我们并不知道是否会有问题发生,所以我们非常小心的进行了测试,把遇到的一些小问题都解决了。然后,我们把它沉到了海底。
这个项目,让我惊喜的发现了一个现象,事实上人们是愿意住的离海近一点,所以我们觉得把数据中心放到大城市周边临海的地方,可以满足比如混合现实、虚拟现实这种低时延要求应用的需求,而且,很快5G技术也会商业化部署。
海上能源大部分目前都是风能,而且大部分都离大城市很近。中国在可再生能源领域其实是领先者,现在中国也在做一些海上的工作,不光是风能,还有潮汐能、海浪能等等。我们知道海洋表面的水温比海底的水温高的多,可以利用它来生成能量。
还有一个很重要的问题,为什么不在陆地上建数据中心呢?众所周知,大城市的土地资源非常稀缺。整个数据中心规模非常大,要在上海市中心建这么一个大规模的数据中心几乎是不可能的,如果能够在离大城市比较近的海底做是没有问题的,这样还可以接近客户。当然,淡水资源也是很稀缺的,因为需求很大,供应也不是很足,所以会消耗自来水用于数据中心(在陆地上)的冷却。因此,微软认为这个海底数据中心的概念非常好,因为它使用的是海水而不是淡水,我们不会与其他人竞争(淡水)资源。
摩尔定律,当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。确实,从微软角度来说,我们希望能够快速的推出新的服务器,这样我们就有更好的成本,给客户更高的价值。历史上来说,我们每两年要刷新数据中心的服务器,但是我们发觉摩尔定律已经不能够说明我们为什么要快速的刷新这些硬件了。事实上,我们不是每两年更换一次服务器,而是延长他们的使用周期,五年到十年。
目前的数据中心,都在在可靠性上具有挑战性。我们谈到的有水,有氧气,有金属,这些都会出现腐蚀现象,对服务器而言,意味着网络会突然断掉,如果主板和CPU之间失去联系,可能手机/PC的问题不大,但是对一个有几千台的服务器的数据中心来讲是一个大的问题,伴随而来的还有污染问题。微软有专人维护,在每一次做维护的时候,可能会导致一些新的问题,数据中心是一个温度很高的地方,事实上高温会降低数据中心的可靠性。因此,微软打造了一个叫做无人化、自动化的数据中心。因为没人在里面,所以我们把湿度全部抽掉,还有氧气全部抽掉,没有人在里面,与外界隔缘。这就是一个高效的冷却方案,可以把数据中心维持在一个很低的温度,比如说10度。事实上对于电子电器来说,可能会影响到它的寿命。所以,我们也不知道到底它的优势最终怎么样,但是,事实上数据中心在海底很安全,不会出现类似黑天鹅事件。比如说台风、飓风可能在海平面以上造成问题,但是在海底不会有任何的影响,这一点非常重要。另外,把数据中心放在海底,还会免受电磁的影响。
当我们把数据中心放到海底后,它就变成了一个人工的珊瑚礁,很多的海洋生物都附着上来,形成了自己的小生态。这也是一个非常好的觅食的地方,同时也是一个非常好的保护区,比如离这些大的金属物很近,小鱼免于被大鱼吃掉,小鱼在这里觅食,大家还可以把这作为一个保护地球的项目。我们希望能够造福于地球,能够提高地球环境的可持续性。所以我们开发了一些工具,来去识别数据中心周围的不同生物,并且对它们进行跟踪,让我们持续关注我们的海底数据中心的这样的一个生态的系统。
希望我们能够更快的为客户提供新的能力,同时还能保证低时延,我就介绍到这里,谢谢!
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。