AWS发布新产品加大投入生成式AI训练

AWS近日发布了几款用于在云平台上训练和部署生成式AI的新工具。

AWS近日发布了几款用于在云平台上训练和部署生成式AI的新工具,将业务范围进一步扩展到AI软件开发领域。

AWS在AWS Machine Learning博客上发表了一篇文章,详细介绍了这些新产品,这些模型是大规模的、预训练的语言模型,为有针对性的自然语言处理任务奠定了基础。基础模型通常使用深度学习技术对大量文本数据进行训练,使其能够学习理解人类语言,生成文本。

使用预训练的基础模型,可以为开发人员节省大量的时间和资源,举例来说,OpenAI的Generative Pre-trained Transformer(GPT),就可用于文本生成、情感分析和语言翻译。

多种大型语言模型选项

Bedrock这项新服务可以通过应用界面提供各种来源的基础模型,包括来自AI21 Labs的Jurassic-2多语言大型语言模型,可以生成西班牙语、法语、德语、葡萄牙语、意大利语和荷兰语的文本;以及Anthropic PBC的Claude LLM,是基于用于训练原则的、负责任AI系统的对话式处理任务和文本处理任务。用户还可以使用API访问Stability AI以及Amazon LLM。

AWS数据库、分析和机器学习副总裁Swami Sivasubramanian这样写道,基础模型是在互联网规模上进行预训练的,因此用相对较少的额外训练就可以进行定制。他举了一个时装零售商内容营销经理的例子,该经理可以向Bedrock中输入少至20个来自“过去营销活动、相关产品描述的优秀标语示例,Bedrock就可以自动开始为新款手袋产品生成有效的社交媒体内容、展示性广告以及网络文案。”

除了Bedrock之外,AWS还推出了两种新的Titan大型语言模型。第一种是生成式大型语言模型,用于摘要、文本生成、分类、开放式问答和信息提取;第二种大型语言模型,是用于输入文本并转换为包含文本语义的数字表示,有助于产生不仅限于单词匹配的上下文响应。

值得注意的是,这次公告中没有提及OpenAI(微软是其主要投资方),但考虑到市场对大型语言模型的需求,这应该不会成为Amazon面临的一个障碍。

Gartner知名分析师、研究员Rajesh Kandaswamy表示:“人们急于创造很多技术,在这个阶段,你看到的几乎所有技术都有来自多家创新公司的多种选择。”

在推出自己的大型语言模型方面,AWS落后于微软和谷歌,但是这并不会成为一个竞争障碍,Kandaswamy表示,“我认为没有人落后到必须追赶的程度,看起来市场中正在进行一场大型比赛,但和我们交谈的客户,除了非常早期的采用者之外,都不知道该如何做。”

硬件方面的提升

AWS还加强了用于在AWS云上提供训练和推理的硬件。新推出的网络优化型EC2 Trn1n 实例,结合了AWS专有的Trainium和Inferentia2处理器,现在每秒可提供1600 GB的网络带宽,性能提升大约20%。AWS的Inf2实例,使用Inferentia2用于推理大型生成式AI应用,其中有包含了数千亿个参数的模型,现在该实例已经面市。

AWS还推出了AI编码工具CodeWhisperer,它使用基础模型根据自然语言评论和集成开发环境中的历史代码实时生成代码建议。该工具适用于Python、Java、JavaScript、TypeScript C#和其他10种语言,可以通过各种IDE访问。

Sivasubramanian写道:“开发人员可以简单地告诉CodeWhisperer执行某项任务,例如‘解析CSV歌曲字符串’,并要求它根据艺术家、标题和最高排行榜排名等值返回一个结构化列表,”。CodeWhisperer会生成“一个完整的函数来解析字符串并返回指定的列表。” 他说,使用预览版的开发人员报告说,与没有使用该工具的情况相比,速度提高了57%,成功率提高了27%。

在不久的将来,大型语言模型领域可能还会保持零散和混乱的状态,因为许多参与者试图从ChatGPT等概念验证的成功进行获利。Kandaswamy说,任何一种模型都不太可能像谷歌自然语言API在语音识别领域那样主导市场。

他说:“仅仅因为一个模型擅长一件事,并不意味着它会擅长所有事,有可能在未来两三年内,大家都会提供其他人的模型,将来会有更多混合和跨技术的关系。”

来源:至顶网软件与服务频道

0赞

好文章,需要你的鼓励

2023

04/17

10:29

分享

点赞

邮件订阅