AWS正在将Amplify JavaScript库更新至版本6,新版本添加了Next.js支持、更强的TypeScript支持性并实现了代码包“瘦身”。该公司还表示,后续将把自家CodeWhisperer AI编码服务引入Enterprise功能层。
Amplify既是一套JavaScript库,也是一款应用程序构建工具,具体依托的是用于配置后端资源的Amplify CLI(命令行界面)、与Figma设计工具相集成的可视化界面构建器Amplify Studio,以及用于快速部署的Amplify托管服务。该产品的基本思路是帮助开发人员使用一切功能选项提高应用程序的开发效率。
Amplify 6库现已开放预览版,此次重大更新主要关注三个领域。其一是通过摇树算法减少软件包体积,也就是删除未使用的代码。为了实现此目标,该库采取一种更为精细、基于函数(而非类)的方法进行代码导入。AWS在介绍文章中给出了以下示例:
import { Auth } from 'aws-amplify'
将被替换为:
import { signIn } from 'aws-amplify/auth'
其二,Amplify正在改进TypeScript支持能力,初步涵盖身份验证、分析和存储。AWS还承诺支持“我们的所有类别,包括GraphQL API和REST API”。新版本还支持严格模式,即在代码编译之前强制执行类型检查。
第三则是对Next.js框架提供新的支持,包括服务器端渲染、中间件和服务器功能。但说明文档提醒称,“在v6开发者预览版中,仅有部分API可以在Next.js项目的服务器端使用。更多类别和API支持未来将陆续推出。”
AWS表示,“我们的社区经常要求”为Next.js提供支持,这或许反映出该框架在某些新型React功能上要比其他框架更为领先。
总体来看,对于构建将运行在AWS之上的全栈应用程序来说,Amplify似乎已经成为令人信服的方案选项。也就是说,部分开发人员意识到现有快速应用程序开发工具存在一系列现实缺陷:虽然上手容易,可一旦应用程序变得愈发庞大复杂,使用起来就会越来越困难。开发者Sam Thorogood宣称,“AWS Amplify非常有害,主要原因就在于它所选择的数据库。”他发现Amplify对于GraphQL模型和DynamoDB数据库的依赖既制约了开发者的发挥,也拉低了工作效率。“另一个大问题在于,一旦在生产中使用数据库(不仅仅是DynamoDB,也包括任何一种其他数据库),开发者将很难摆脱锁定。”
但其他社区用户却对此表现积极,认为最重要的是稳健推进、并使用Amplify发挥其最为擅长的功能。一位用户评论称,“我在很多项目中都用过Amplify,它的身份验证和注册内容都是很棒的打包功能。我们还把它用于一些前端CI/CD流程当中。但除此之外,也就没嗢的了。相比之下,我更希望Amplify能换一套良好且易于使用的无服务器Postgres数据库,同时能跟AWS Lambda顺畅配合。但如果继续像现在这样强制要求我们认真规划访问模式和索引……我个人其实倒也可以接受。”
AWS还为其AI编码助手CodeWhisperer引入了新的AI功能。其基本思路是根据组织的私有代码训练AI,同时确保敏感信息始终保持在客户可控范围之内。介绍文章解释称,“管理员可以从GitLab或Amazon Simple Storage Service(Amazon S3)等源处接入其私有代码仓库,并安排作业来创建自己的定制化操作。”这项功能将在“未来几周之内,作为新的CodeWhisperer Enterprise功能层”发布预览版本。
好文章,需要你的鼓励
一加正式推出AI功能Plus Mind和Mind Space,将率先在一加13和13R上线。Plus Mind可保存、建议、存储和搜索屏幕内容,并将信息整理到Mind Space应用中。该功能可通过专用按键或手势激活,能自动创建日历条目并提供AI搜索功能。一加还计划推出三阶段AI战略,包括集成大语言模型和个人助手功能,同时将推出AI语音转录、通话助手和照片优化等工具。
北航团队推出Easy Dataset框架,通过直观的图形界面和角色驱动的生成方法,让普通用户能够轻松将各种格式文档转换为高质量的AI训练数据。该工具集成了智能文档解析、混合分块策略和个性化问答生成功能,在金融领域实验中显著提升了AI模型的专业表现,同时保持通用能力。项目已开源并获得超过9000颗GitHub星标。
预计到2035年,数据中心用电需求将增长一倍以上,达到440TWh,相当于整个加利福尼亚州的用电量。AI工作负载预计将占2030年数据中心需求的50-70%。传统冷却系统电机存在功率浪费问题,通常在30-50%负载下运行时效率急剧下降。采用高效率曲线平坦的适配电机可显著降低冷却系统功耗,某大型数据中心通过优化电机配置减少了近4MW冷却功耗,为13500台AI服务器腾出空间,年增收入900万美元。
卢森堡计算机事件响应中心开发的VLAI系统,基于RoBERTa模型,能够通过阅读漏洞描述自动判断危险等级。该系统在60万个真实漏洞数据上训练,准确率达82.8%,已集成到实际安全服务中。研究采用开源方式,为网络安全专家提供快速漏洞风险评估工具,有效解决了官方评分发布前的安全决策难题。