ZD至顶网软件频道消息:AWS 年会消息:AWS表示已经开始打造自己的芯片,目的是为旗下庞大的云服务流量提供帮助。
盈利的AWS隶属亚马逊帝国。AWS表示已开始在AWS服务器里使用特别设计过的Annapurna ASIC芯片,为控制物理网络及SDN网络的流量出一把力。这样做可以腾出数以万计的CPU,以集中处理计算任务。
该款定制芯片也是推动AWS自定义网络架构的动力。AWS自定义网络架构用的是25 GB 太网网。亚马逊认为25 GB 太网网事实上比常用的10 GB太网网和40 GB太网网标准更具扩展性及更高效。
亚马逊副总裁和杰出工程师James Hamilton本周在拉斯维加斯召开的AWS re:Invent大会上表示,这些芯片提供了另一个层面上的灵活性,可以对亚马逊旗下专门托管AWS云实例的所有数据中心进行优化。另外,使用了这些芯片后,亚马逊可以在网络方面采用不同的方法,他称这也反映出业界的大趋势是摈弃传统的封闭路由器盒。
Hamilton还表达如下的看法,“不妨看一下时下的网络状态,它基本上就是20年前服务器的状态。只要将垂直堆栈分离肢解,各种公司之间就会出现竞争和合作,大事情就会发生。”
亚马逊在构建旗下18个 AWS数据中心区时采用的方法在很多情况下也是这样做的。每个区有多个构造群(按AWS的说法是 “可用性区域”),每个群里安装了多达30万台服务器,另外尚有别的“运输中心”构造群,里面是亚马逊全球网络的网络系统。每个可用性区域的功率为2500-3000万瓦,不过Hamilton称,亚马逊可能会将其扩展到2亿5000万瓦,前提是这样做从经济的角度上考量有益处。
Hamilton估计AWS计算能力每天的增加量大约可满足一家财富500强公司的计算需求。
他表示,“AWS在2015年里部署的服务器容量可以支持2005年的亚马逊,亚马逊当时已经是一家身家值84.9亿美元的企业了。”
AWS对硬件的兴趣极大,在很大程度上已经在从服务器设计到ASIC芯片的旗下各种网络设备上拥有话语权。AWS的机架式服务器是专为AWS云实例打造的,这些服务器其实非常小,机壳里几乎一半是空的。
Hamilton表示,这些设计简约的服务器比从供应商购买的服务器在功率和散热方面效率都要高得多。
他表示,“OEM销售给客户服务器密度可能是三、四、或五倍,效率较低。他们会多收费补上。”
AWS存储超大,其设计同样也令人印象深刻。亚马逊服务需处理巨大的数据负载,用到的服务器设备密度极大。比如,一个存储盒的容量高达8.8 PB,含1110个硬盘,只用了一个42 U机架。整个盒子重2778磅。Hamilton称,该存储盒其实是一款老系统。
时至今日,规模已经扩展到AWS够用了。Hamilton表示,他认为目前的数据中心设施的规模就物理尺寸上而言已经是最佳的了,未来计划的区不会比现在用的设施大许多。
Hamilton 称,“已经快到了再做大的益处已经很小的地步了。”
他表示,“我们觉得这种大小正好。我们的花费多一点,不过我们认为对用户来正好。”
好文章,需要你的鼓励
亚马逊在生成式AI爆发初期便敏锐意识到了人工智能培训的重要性,2023年宣布启动“AI就绪(AI Ready)”计划,通过系统化的人才培养架构,不仅着眼解决当下企业AI应用的人才缺口,更为全球数字经济发展构建了AI人才储备体系。
OpenAI 宣布将于今年晚些时候发布自 GPT-2 后首个开源语言模型,由研究副总裁 Aidan Clark 领导,预计初夏推出。该模型针对高端消费硬件,可灵活启用推理功能,并采用宽松许可证和严格安全评估,此举旨在应对 DeepSeek、Meta 等开源对手的竞争。
Ocient成功融资4210万美元,加速研发基于NVMe SSD与计算近接存储架构的绿色、低成本大数据与 AI 分析解决方案。
联想推出了21款全新存储产品(含液冷HCI系统),帮助企业快速构建AI基础设施,推动IT现代化、提高数据管理效率、降低能耗,并满足多种企业级AI与数据更新需求。