至顶网软件频道消息: 本周AWS年度re:Invent 大会开幕,AWS在美国时间周一晚上重磅推出了一款自己设计的全新云芯片。
这款名为Graviton的芯片是基于Arm的,由Amazon在2015年收购的芯片开发商Annapurna Labs设计,目前已经通过AWS EC2云计算服务开始向其云客户供货。
这款芯片的一大亮点是它提供了成本更低的计算能力。Amazon表示,Graviton芯片运行应用的成本要比英特尔或者AMD的芯片低45%,而且AWS也提供租赁服务。
AWS全球基础设施和客户支持副总裁Peter DeSantis在周一晚间演示中表示,名为A1的芯片服务旨在针对那些跨多个设备运行的横向扩展应用,以及很多Web应用。具体来说,这些服务适用于容器化的微服务,或者捆绑应用,这样就可以运行在多种计算机和软件上,以及Web服务器、开发环境、以及缓存服务器组。
Graviton芯片是对Arm芯片优点的一个证明,一般来说Arm芯片主要用于低功耗设备,例如智能手机,以及最近用于的网络路由器等。现在,Arm也开始进入主流数据中心服务器,而且采用Graviton芯片的A1计算实例意味着它现在也走入了云端。
与此同时,这也表明英特尔和AMD不再独享数据中心或云端,尽管英特尔仍然占主导地位,AMD也已经通过Epyc芯片占据了一席之地。Graviton可以运行在Amazon Linux、Red Hat Enterprise Linux和Ubuntu上编写的应用,A1实例已经在三个美国和一个欧洲AWS区域中可用。
Graviton并不是AWS宣布的唯一增强功能。AWS还宣布推出了其他新的计算实例,包括一个名为P3dn的功能,它提供了GPU的强大能力来运行机器学习、人工智能和高性能计算应用,并采用Nvidia高端的V100 Volta芯片,提供AWS AI总经理Matt Wood所谓的云中规模最大、速度最快的训练实例。
另一个名为C5N的新实例,为运行计算密集型应用提供了更高的网络带宽,并在当晚成为赢得开发者最多掌声的实例。
此外在周一晚上,AWS还推出了一款名为Global Accelerator的新工具,旨在帮助AWS客户更轻松地跨多个云区域路由他们的网络流量。这一点非常重要,因为现在很多客户都需要跨多个区域运行以提高速度,确保应用在某个区域出现问题或面临监管要求时不会停机。
AWS计划根据客户创建的加速器数量向客户收费。“加速器是你创建用来将流量引导到AWS全球网络上最佳端点的资源,客户通常会为每个应用设置一个加速器,但更复杂的应用可能需要多个加速器。”AWS开发人员运营高级经理Shaun Ray在博客文章中这样写道。
目前Global Accelerator已经在美国、欧洲和亚洲的几个区域可用。
在网络方面,AWS还宣布推出了Elastic Fabric Adapter,这是一个面向Amazon EC2实例的网络适配器,AWS声称这些实例可以提供本地高性能计算集群的性能水平。
最后,AWS还推出了一个面向Firecracker无服务器计算的轻量级虚拟化服务,旨在让客户无需专门配置服务器和网络即可使用计算服务。
好文章,需要你的鼓励
OpenAI明确表示要成为互联网一切事物的主导界面。AI智能体正在改变用户的数字习惯,从健康记录分析到购物指导,ChatGPT已经在多个领域扩展影响力。用户快速采用AI工具,但企业和生态系统的适应速度滞后。电商领域的权力分配尚不明确,用户偏好AI驱动的答案优先体验,品牌则推动生成式引擎优化。研究旨在了解用户与企业在AI变革中的适应差异。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。