至顶网软件频道消息: AWS周三宣布全面推出AWS无服务器应用程序库(AWS Serverless Application Repository),让用户可以查找并部署无服务器应用程序及组件,据悉,之前的版本是公开预览版,可以从Lambda Console访问无服务器应用程序库(Serverless Application Repository)。
对于消费者而言,可以将无服务器应用程序和组件按照原样从存储库配置并部署到AWS账户,还可以添加功能并将提交请求提交给作者。
对于发布者,在提交文稿时要填写名称、说明、标签并选择一个开源许可证。然后,发布者提供现有源代码报告、SAM模板和指定语义版本的链接。
亚马逊表示,应用程序可以部署在美国东部(俄亥俄州)、美国东部(弗吉尼亚北部)、美国西部(北加州)、美国西部(俄勒冈州)、亚太地区(东京)、亚太地区(首尔)、亚太地区(孟买)、亚太地区(新加坡)、亚太地区(悉尼)、加拿大(中部)、欧盟(法兰克福)、欧盟(爱尔兰)、欧盟(伦敦)和南美洲(圣保罗)等地区。
要实现全球可用性,你可以从美国东部(弗吉尼亚北部)或美国东部(俄亥俄州)等地区进行发布。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。