AWS正在将Amplify JavaScript库更新至版本6,新版本添加了Next.js支持、更强的TypeScript支持性并实现了代码包“瘦身”。该公司还表示,后续将把自家CodeWhisperer AI编码服务引入Enterprise功能层。
Amplify既是一套JavaScript库,也是一款应用程序构建工具,具体依托的是用于配置后端资源的Amplify CLI(命令行界面)、与Figma设计工具相集成的可视化界面构建器Amplify Studio,以及用于快速部署的Amplify托管服务。该产品的基本思路是帮助开发人员使用一切功能选项提高应用程序的开发效率。
Amplify 6库现已开放预览版,此次重大更新主要关注三个领域。其一是通过摇树算法减少软件包体积,也就是删除未使用的代码。为了实现此目标,该库采取一种更为精细、基于函数(而非类)的方法进行代码导入。AWS在介绍文章中给出了以下示例:
import { Auth } from 'aws-amplify'
将被替换为:
import { signIn } from 'aws-amplify/auth'
其二,Amplify正在改进TypeScript支持能力,初步涵盖身份验证、分析和存储。AWS还承诺支持“我们的所有类别,包括GraphQL API和REST API”。新版本还支持严格模式,即在代码编译之前强制执行类型检查。
第三则是对Next.js框架提供新的支持,包括服务器端渲染、中间件和服务器功能。但说明文档提醒称,“在v6开发者预览版中,仅有部分API可以在Next.js项目的服务器端使用。更多类别和API支持未来将陆续推出。”
AWS表示,“我们的社区经常要求”为Next.js提供支持,这或许反映出该框架在某些新型React功能上要比其他框架更为领先。
总体来看,对于构建将运行在AWS之上的全栈应用程序来说,Amplify似乎已经成为令人信服的方案选项。也就是说,部分开发人员意识到现有快速应用程序开发工具存在一系列现实缺陷:虽然上手容易,可一旦应用程序变得愈发庞大复杂,使用起来就会越来越困难。开发者Sam Thorogood宣称,“AWS Amplify非常有害,主要原因就在于它所选择的数据库。”他发现Amplify对于GraphQL模型和DynamoDB数据库的依赖既制约了开发者的发挥,也拉低了工作效率。“另一个大问题在于,一旦在生产中使用数据库(不仅仅是DynamoDB,也包括任何一种其他数据库),开发者将很难摆脱锁定。”
但其他社区用户却对此表现积极,认为最重要的是稳健推进、并使用Amplify发挥其最为擅长的功能。一位用户评论称,“我在很多项目中都用过Amplify,它的身份验证和注册内容都是很棒的打包功能。我们还把它用于一些前端CI/CD流程当中。但除此之外,也就没嗢的了。相比之下,我更希望Amplify能换一套良好且易于使用的无服务器Postgres数据库,同时能跟AWS Lambda顺畅配合。但如果继续像现在这样强制要求我们认真规划访问模式和索引……我个人其实倒也可以接受。”
AWS还为其AI编码助手CodeWhisperer引入了新的AI功能。其基本思路是根据组织的私有代码训练AI,同时确保敏感信息始终保持在客户可控范围之内。介绍文章解释称,“管理员可以从GitLab或Amazon Simple Storage Service(Amazon S3)等源处接入其私有代码仓库,并安排作业来创建自己的定制化操作。”这项功能将在“未来几周之内,作为新的CodeWhisperer Enterprise功能层”发布预览版本。
好文章,需要你的鼓励
Carma Technology 针对 Uber 提起专利侵权诉讼,称其侵犯了涉及拼车系统的五项专利。案情回溯至十年前,凸显专利保护对创新者的重要性,可能对 Uber 及其他公司带来巨大影响。
东京大学研究团队开发的WebChoreArena是一个全新的网页代理评估基准,它包含532个精心设计的任务,专注于测试AI代理处理繁琐、复杂网页任务的能力。研究结果显示,即使是最先进的语言模型(如Gemini 2.5 Pro)在这些挑战性任务上的表现也比常规任务降低了约14个百分点,证明了这一基准有效区分了不同模型的能力。WebChoreArena通过设计海量记忆、计算、长期记忆等类型的任务,为评估AI代理在实际应用场景中的表现提供了更严格的标准。
经过暂停战略调整,Automattic 宣布重返 WordPress 开发,包括核心、Gutenberg、Playground 等模块,计划今年推出 6.9 版本,并涉及与 WP Engine 的法律争端。
这项研究提出了一种名为LIFT的新型微调方法,通过在低秩近似后识别大语言模型中的主要权重进行稀疏微调。研究表明,仅更新5%的主要权重就能在推理任务上超越全参数微调,同时保持与LoRA相当的内存效率。LIFT在常识推理、算术推理等多项任务上表现优异,还能更好地平衡学习新知识与保留原有能力。这一方法揭示了大语言模型中关键参数的重要性,为资源高效的模型定制提供了新思路。