AWS正在向自己的云平台中增加更多新的功能,帮助开发者更有效地编写代码,并为AI项目生成训练数据集。这些功能于近日在美国拉斯维加斯举行的Amazon re:MARS 2022大会上首次亮相。
AI驱动的编码助手
AWS云产品组合的首个新增功能,是一项名为Amazon CodeWhisperer的服务,该服务目前处于预览阶段,使用AI自动生成软件代码。据AWS称,这项服务通过自动生成原本必须手动的代码,为开发者节省时间,从而更快速地完成软件项目。
AWS表示,已经用来自开源项目、内部代码库和其他来源的数十亿行代码对CodeWhisperer进行了训练。该服务能够一次性生成超过10行代码,还可以匹配给定软件项目的编码风格,从而简化某些开发任务。
“CodeWhisperer利用多个上下文线索来生成建议,包括源代码中的光标位置、光标之前的代码、同一项目中其他文件的注释和代码,”AWS首席布道师Jeff Barr详细介绍说。
软件团队可以使用AWS IDE Toolkit工具访问Code Whisperer,该工具旨在与开发者的集成开发环境或IDE集成(IDE是程序员用来编写代码和执行相关任务的一种桌面应用)。CodeWhisperer支持多个主流IDE以及多种编程语言,包括Java、JavaScript和Python。
CodeWhisperer可以根据开发者添加到源文件的自然语言文本生成代码片段。如果开发者输入“检查数字是否为质数”之类的指令,CodeWhisperer就可以生成执行指定任务的代码片段。如果完成一项任务需要利用云服务或库等外部技术,CodeWhisperer则可以自动找到必要的技术并将其整合到代码中。
CodeWhisperer服务的另一个重点是让开发者更容易使用AWS云平台,它简化了在AWS Amazon S3存储服务中创建存储桶或数据存储库等任务,此外也适用于其他服务例如Amazon EC2和AWS Lambda。
简化AI训练
除了CodeWhisperer之外,AWS还更新了SageMaker Ground Truth服务。该服务可以帮助软件团队为AI项目创建训练数据集,此次更新加入了合成数据生成功能。
构建AI应用涉及到很多步骤,其中最耗时的步骤之一就是准备训练数据集,可能需要长达数月的时间,因为这通常需要手动创建数据,例如,如果一家公司正在构建一个神经网络来检测生产线上的故障组件,就必须创建一个包含了故障组件图像的自定义训练数据集。
AWS人工智能和机器学习首席开发者布道师Antje Barth在一篇博客文章中解释说:“一旦你收集了所有数据,就需要准确地标记图像,这本身就是一项艰巨的任务。手动标记图像很慢,并且容易出现人为错误,构建自定义标记工具和设置缩放标记操作可能是既耗时又耗费成本的。”
据AWS称,此次更新SageMaker Ground Truth将简化这项任务,AWS可以帮助企业创建一个合成的训练数据集,加快AI开发速度,这种合成训练数据集是专门为AI开发目的而生成的文件集合。
Barth详细介绍说:“AWS数字艺术家将首先创建一小批带标签的合成图像作为试制,供你查看。一旦准备好,就可以使用逼真的物理引擎进行渲染,通过虚拟世界中的传感器捕获场景图像,图像也是自动标记的。”
新的合成数据生成功能和CodeWhisperer服务扩展了AWS已经相当广泛的AI产品组合。AWS提供了多种旨在简化神经网络开发的服务,还通过Amazon Personalize等产品提供预打包的机器学习功能,用于自动生成产品推荐。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。