AWS全球渠道负责人Ruba Borno表示,AWS让全球客户都有机会使用生成式AI,并计划通过合作伙伴推动新发布的AI解决方案。
AWS副总裁、全球渠道和联盟负责人Borno在接受采访时表示:“我们对AWS现在如何让客户都有机会访问基础模型和生成式AI感到非常兴奋。我们帮助客户取得的主要成果,是让他们能够灵活地选择他们想要使用生成式AI进行构建的方式。”
她表示,客户和合作伙伴可以从三个选项中进行选择:使用专门的机器学习基础设施构建自己的基础模型,利用预训练的基础模型作为基础模型来构建他们的应用,或者使用带有内置生成式AI的服务,而无需基础模型方面的任何特定专业知识。
在AWS生成式AI并不是新鲜事
在谈及AWS推动合作伙伴和客户消费生成式AI解决方案和计划(例如Amazon Bedrock和免费访问Amazon CodeWhisperer)之前,Borno表示,关键是要记住,Amazon并不是AI市场中的新手。
OpenAI ChatGPT(得到AWS云竞争对手微软的支持)等产品的流行,让生成式AI成为了2023年的新闻头条。Borno希望提醒市场,AWS几十年来一直在投资机器学习。
她说:“AI和机器学习对亚马逊来说并不陌生。二十年来,我们一直大力投资这项技术的开发和部署,不管是面向客户还是内部运营。至今我们已经累计帮助100000多家客户通过机器学习和人工智能进行创新。”
生成式AI是一种可以根据提示生成图像、文本、音频和合成数据的应用。Borno表示:“我们的合作伙伴在帮助客户利用生成式AI的潜力方面,发挥着关键作用。尽管我们仍处于生成式AI的早期阶段,但合作伙伴不应该推迟在AWS上构建生成式AI产品。”
Borno在接受采访时,解释了AWS最重要的生成式AI产品和渠道计划,称合作伙伴应该在当今市场上利用这些产品。
Amazon Bedrock:“构建和扩展”生成式AI的最简单的方式
Amazon Bedrock是一项用于构建和扩展生成式AI应用的新服务,让客户可以轻松访问创新的基础模型。
Borno说:“Amazon Bedrock为客户提供了构建和扩展企业级生成式AI应用一种最简单的方法。Bedrock使来自AI初创公司的预训练基础模型,如Anthropic和Stability AI,可以通过API轻松获得,此外还提供由AWS开发的Amazon Titan基础模型。”
Amazon Bedrock的启动合作伙伴包括Accenture、Deloitte、Infosys和Slalom,这些合作伙伴正在打造实践以帮助企业更快速地行动起来。她说:“Amazon Bedrock的托管服务让我们感到非常兴奋。”
新的Amazon EC2 Inf2使“生成式AI具有成本效益”
AWS最近全面推出了由AWS Inferentia2芯片提供支持的Amazon EC2 Inf2实例,旨在降低运行生成式AI工作负载的成本。
Borno说:“我们从一流的基础设施角度出发,使生成式AI具有成本效益。”
她说:“如果你考虑生成式AI,有两种类型的工作要做:一种是推理,另一种是必须要做的训练。因此,训练模型然后从模型中推断答案。与上一代产品相比,Amazon EC2 Inferentia2实例的吞吐量提高了4倍,延迟降低了10倍。 推理性能比其他任何EC2实例都高出40%,所以我们真的是在进行推理。”
Borno表示,降低成本和能源消耗,让生成式AI更容易被更广泛的客户所用。
开发人员免费访问Amazon CodeWhisperer
AWS正在推动更多的开发人员和合作伙伴访问Amazon CodeWhisperer,这是一个AI编码助手,可以生成整行和全功能的代码建议。AWS现在提供对Amazon CodeWhisperer 的免费访问,对个人开发人员没有任何使用限制。
Borno说:“CodeWhisperer现在支持10多种编程语言,我们进行了生产力挑战赛,使用Amazon CodeWhisperer的参与者完成任务的速度,比那些没有使用的参与者快57%。他们成功完成任务的频率比没有完成任务的人高27%。”
她说:“因此,当你考虑推广使用生成式AI的时候,就意味着开发人员生产力的巨大飞跃,我们对此感到非常兴奋。”
运行Trn1n实例的Trainium芯片
Borno说,生成式AI模型需要经过训练才能提供正确的答案、图像和洞察力,运行这些训练运行需要大量的计算资源,而且众所周知,这么做成本是很高的。
不过,AWS新推出的Trn1n实例现在运行在AWS定制的Trainium芯片上,提供强大的网络功能,Borno表示,这是快速且经济高效训练这些模型的关键。
她说:“这些芯片旨在为大型网络密集型模型提供比上一代Trainium1高出20%的性能。”在运行Trn1n实例的时候,开发人员能够以更低的成本更快速地训练模型。
AWS合作伙伴的角色:专业化、熟悉客户的基础模型
Borno表示,2023年AWS将在合作伙伴方面采取四个步骤和行动。
“首先是专业化。投资开发行业专有的生成式AI实践和解决方案,例如来自垂直行业的洞察,包括广告和营销、医疗和生命科学、金融服务等。”
例如,AWS最近与3M Health Information Systems展开合作,加速AI在临床文档中的使用,为医生提供医疗笔记和虚拟助手解决方案。“这些是生成式AI可以增加价值的关键成果。我们希望我们的合作伙伴专注于这些领域,因为结果才是最重要的。”
第二是让合作伙伴了解适合他们客户用例的正确的基础模型。
“Amazon Bedrock提供的广泛选择汇集了当今市场上最强大的基础模型。但并非所有基础模型都是放之四海而皆准的。熟悉哪种基础模型最适合他们的客户用例,这是非常关键的。我们可以帮助他们,因为今天他们可以通过Amazon JumpStart获得其中一部分基础模型。这就是SageMaker的机器学习中心要做的,提供数百个预训练的模型和模板,让我们的合作伙伴快速入门。”
AWS致合作伙伴:如何吸引客户和构建解决方案
另外两项措施,是开始与客户接触并尽快围绕生成式AI构建解决方案。
AWS正在为合作伙伴提供资源,帮助他们开始或者推进他们的生成式AI客户之旅,包括AWS Solutions Library、AWS Solutions Construct和Partner Solutions Factory等加速器。
例如,AWS的Partner Solutions Factory让合作伙伴能够与AWS专家就系统架构、设计、演示以及其他资源展开协作。与此同时,AWS Solutions Constructs是AWS Cloud Development Kit的开源扩展,可提供多服务、架构良好的模式,用于在代码中快速定义解决方案,以打造可预测的、可复用的基础设施。
Borno说:“这些都是为了帮助我们的合作伙伴开发高质量的、值得信赖的生成式AI解决方案和产品。”
“我们的客户对这项技术非常热情,但不知道从哪里开始,以及他们可以从中获得什么价值。我们希望确保我们的合作伙伴能够吸引客户,并且他们正在确定一些用例子集。然后我们可以通过概念验证、领域专家和逆向工作的方法为他们提供支持。在这方面,我们希望确保我们尽快将技术和利益交到客户手中,我们的合作伙伴至关重要。”
好文章,需要你的鼓励
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AI虽具备变革企业洞察力的潜力,但成功依赖于数据质量。大多数AI项目失败源于数据混乱分散而非算法局限。谷歌BigQuery云数据AI平台打破数据孤岛,简化治理,加速企业AI应用。通过AI自动化数据处理,实现实时分析,并与Vertex AI深度集成,使企业能够高效处理结构化和非结构化数据,将智能商业转型从愿景变为现实。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。