至顶网软件频道消息: 本周AWS年度re:Invent 大会开幕,AWS在美国时间周一晚上重磅推出了一款自己设计的全新云芯片。
这款名为Graviton的芯片是基于Arm的,由Amazon在2015年收购的芯片开发商Annapurna Labs设计,目前已经通过AWS EC2云计算服务开始向其云客户供货。
这款芯片的一大亮点是它提供了成本更低的计算能力。Amazon表示,Graviton芯片运行应用的成本要比英特尔或者AMD的芯片低45%,而且AWS也提供租赁服务。
AWS全球基础设施和客户支持副总裁Peter DeSantis在周一晚间演示中表示,名为A1的芯片服务旨在针对那些跨多个设备运行的横向扩展应用,以及很多Web应用。具体来说,这些服务适用于容器化的微服务,或者捆绑应用,这样就可以运行在多种计算机和软件上,以及Web服务器、开发环境、以及缓存服务器组。
Graviton芯片是对Arm芯片优点的一个证明,一般来说Arm芯片主要用于低功耗设备,例如智能手机,以及最近用于的网络路由器等。现在,Arm也开始进入主流数据中心服务器,而且采用Graviton芯片的A1计算实例意味着它现在也走入了云端。
与此同时,这也表明英特尔和AMD不再独享数据中心或云端,尽管英特尔仍然占主导地位,AMD也已经通过Epyc芯片占据了一席之地。Graviton可以运行在Amazon Linux、Red Hat Enterprise Linux和Ubuntu上编写的应用,A1实例已经在三个美国和一个欧洲AWS区域中可用。
Graviton并不是AWS宣布的唯一增强功能。AWS还宣布推出了其他新的计算实例,包括一个名为P3dn的功能,它提供了GPU的强大能力来运行机器学习、人工智能和高性能计算应用,并采用Nvidia高端的V100 Volta芯片,提供AWS AI总经理Matt Wood所谓的云中规模最大、速度最快的训练实例。
另一个名为C5N的新实例,为运行计算密集型应用提供了更高的网络带宽,并在当晚成为赢得开发者最多掌声的实例。
此外在周一晚上,AWS还推出了一款名为Global Accelerator的新工具,旨在帮助AWS客户更轻松地跨多个云区域路由他们的网络流量。这一点非常重要,因为现在很多客户都需要跨多个区域运行以提高速度,确保应用在某个区域出现问题或面临监管要求时不会停机。
AWS计划根据客户创建的加速器数量向客户收费。“加速器是你创建用来将流量引导到AWS全球网络上最佳端点的资源,客户通常会为每个应用设置一个加速器,但更复杂的应用可能需要多个加速器。”AWS开发人员运营高级经理Shaun Ray在博客文章中这样写道。
目前Global Accelerator已经在美国、欧洲和亚洲的几个区域可用。
在网络方面,AWS还宣布推出了Elastic Fabric Adapter,这是一个面向Amazon EC2实例的网络适配器,AWS声称这些实例可以提供本地高性能计算集群的性能水平。
最后,AWS还推出了一个面向Firecracker无服务器计算的轻量级虚拟化服务,旨在让客户无需专门配置服务器和网络即可使用计算服务。
好文章,需要你的鼓励
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。
这项研究探讨了多模态大语言模型在增强推理能力时出现的视觉幻觉问题。研究发现,模型生成更长推理链时,对视觉信息的关注减少,导致幻觉增加。研究者提出RH-AUC指标和RH-Bench基准来评估模型在推理与幻觉间的平衡,发现较大模型表现更好,纯强化学习训练优于监督微调加强化学习,且训练数据的类型比数量更重要。这些发现对开发既具推理能力又保持视觉准确性的AI系统具有重要意义。
这篇研究探讨了大语言模型在自动推理任务中的不确定性问题。研究者提出,模型生成形式规范时的概率不确定性不是缺陷,而是宝贵的信号源。通过引入概率上下文无关文法框架分析SMT-LIB程序分布,他们发现不确定性信号具有任务相关性(如逻辑任务中的语法熵AUROC>0.93)。他们的轻量级信号融合方法能减少14-100%的错误,仅需最小弃权,将大语言模型驱动的形式化转变为可靠工程学科。研究揭示当模型正确理解逻辑关系时会产生稳定的语法模式,为判断何时信任模型提供了可靠指标。
来自沙特阿拉伯王子苏丹大学和阿尔法萨尔大学的研究团队开发了GATE(General Arabic Text Embedding)模型,这是一套专为阿拉伯语设计的文本嵌入系统。该研究结合了套娃表示学习和混合损失训练方法,解决了阿拉伯语特有的语义处理挑战。GATE模型在MTEB基准测试的语义文本相似度任务中表现卓越,比包括OpenAI在内的更大模型高出20-25%,同时保持了多维度(768至64)的高效表现。研究通过详细的错误分析揭示了模型在不同相似度水平上的表现特点,为阿拉伯语NLP领域提供了新的研究方向。