AWS全球渠道负责人Ruba Borno表示,AWS让全球客户都有机会使用生成式AI,并计划通过合作伙伴推动新发布的AI解决方案。
AWS副总裁、全球渠道和联盟负责人Borno在接受采访时表示:“我们对AWS现在如何让客户都有机会访问基础模型和生成式AI感到非常兴奋。我们帮助客户取得的主要成果,是让他们能够灵活地选择他们想要使用生成式AI进行构建的方式。”
她表示,客户和合作伙伴可以从三个选项中进行选择:使用专门的机器学习基础设施构建自己的基础模型,利用预训练的基础模型作为基础模型来构建他们的应用,或者使用带有内置生成式AI的服务,而无需基础模型方面的任何特定专业知识。
在AWS生成式AI并不是新鲜事
在谈及AWS推动合作伙伴和客户消费生成式AI解决方案和计划(例如Amazon Bedrock和免费访问Amazon CodeWhisperer)之前,Borno表示,关键是要记住,Amazon并不是AI市场中的新手。
OpenAI ChatGPT(得到AWS云竞争对手微软的支持)等产品的流行,让生成式AI成为了2023年的新闻头条。Borno希望提醒市场,AWS几十年来一直在投资机器学习。
她说:“AI和机器学习对亚马逊来说并不陌生。二十年来,我们一直大力投资这项技术的开发和部署,不管是面向客户还是内部运营。至今我们已经累计帮助100000多家客户通过机器学习和人工智能进行创新。”
生成式AI是一种可以根据提示生成图像、文本、音频和合成数据的应用。Borno表示:“我们的合作伙伴在帮助客户利用生成式AI的潜力方面,发挥着关键作用。尽管我们仍处于生成式AI的早期阶段,但合作伙伴不应该推迟在AWS上构建生成式AI产品。”
Borno在接受采访时,解释了AWS最重要的生成式AI产品和渠道计划,称合作伙伴应该在当今市场上利用这些产品。
Amazon Bedrock:“构建和扩展”生成式AI的最简单的方式
Amazon Bedrock是一项用于构建和扩展生成式AI应用的新服务,让客户可以轻松访问创新的基础模型。
Borno说:“Amazon Bedrock为客户提供了构建和扩展企业级生成式AI应用一种最简单的方法。Bedrock使来自AI初创公司的预训练基础模型,如Anthropic和Stability AI,可以通过API轻松获得,此外还提供由AWS开发的Amazon Titan基础模型。”
Amazon Bedrock的启动合作伙伴包括Accenture、Deloitte、Infosys和Slalom,这些合作伙伴正在打造实践以帮助企业更快速地行动起来。她说:“Amazon Bedrock的托管服务让我们感到非常兴奋。”
新的Amazon EC2 Inf2使“生成式AI具有成本效益”
AWS最近全面推出了由AWS Inferentia2芯片提供支持的Amazon EC2 Inf2实例,旨在降低运行生成式AI工作负载的成本。
Borno说:“我们从一流的基础设施角度出发,使生成式AI具有成本效益。”
她说:“如果你考虑生成式AI,有两种类型的工作要做:一种是推理,另一种是必须要做的训练。因此,训练模型然后从模型中推断答案。与上一代产品相比,Amazon EC2 Inferentia2实例的吞吐量提高了4倍,延迟降低了10倍。 推理性能比其他任何EC2实例都高出40%,所以我们真的是在进行推理。”
Borno表示,降低成本和能源消耗,让生成式AI更容易被更广泛的客户所用。
开发人员免费访问Amazon CodeWhisperer
AWS正在推动更多的开发人员和合作伙伴访问Amazon CodeWhisperer,这是一个AI编码助手,可以生成整行和全功能的代码建议。AWS现在提供对Amazon CodeWhisperer 的免费访问,对个人开发人员没有任何使用限制。
Borno说:“CodeWhisperer现在支持10多种编程语言,我们进行了生产力挑战赛,使用Amazon CodeWhisperer的参与者完成任务的速度,比那些没有使用的参与者快57%。他们成功完成任务的频率比没有完成任务的人高27%。”
她说:“因此,当你考虑推广使用生成式AI的时候,就意味着开发人员生产力的巨大飞跃,我们对此感到非常兴奋。”
运行Trn1n实例的Trainium芯片
Borno说,生成式AI模型需要经过训练才能提供正确的答案、图像和洞察力,运行这些训练运行需要大量的计算资源,而且众所周知,这么做成本是很高的。
不过,AWS新推出的Trn1n实例现在运行在AWS定制的Trainium芯片上,提供强大的网络功能,Borno表示,这是快速且经济高效训练这些模型的关键。
她说:“这些芯片旨在为大型网络密集型模型提供比上一代Trainium1高出20%的性能。”在运行Trn1n实例的时候,开发人员能够以更低的成本更快速地训练模型。
AWS合作伙伴的角色:专业化、熟悉客户的基础模型
Borno表示,2023年AWS将在合作伙伴方面采取四个步骤和行动。
“首先是专业化。投资开发行业专有的生成式AI实践和解决方案,例如来自垂直行业的洞察,包括广告和营销、医疗和生命科学、金融服务等。”
例如,AWS最近与3M Health Information Systems展开合作,加速AI在临床文档中的使用,为医生提供医疗笔记和虚拟助手解决方案。“这些是生成式AI可以增加价值的关键成果。我们希望我们的合作伙伴专注于这些领域,因为结果才是最重要的。”
第二是让合作伙伴了解适合他们客户用例的正确的基础模型。
“Amazon Bedrock提供的广泛选择汇集了当今市场上最强大的基础模型。但并非所有基础模型都是放之四海而皆准的。熟悉哪种基础模型最适合他们的客户用例,这是非常关键的。我们可以帮助他们,因为今天他们可以通过Amazon JumpStart获得其中一部分基础模型。这就是SageMaker的机器学习中心要做的,提供数百个预训练的模型和模板,让我们的合作伙伴快速入门。”
AWS致合作伙伴:如何吸引客户和构建解决方案
另外两项措施,是开始与客户接触并尽快围绕生成式AI构建解决方案。
AWS正在为合作伙伴提供资源,帮助他们开始或者推进他们的生成式AI客户之旅,包括AWS Solutions Library、AWS Solutions Construct和Partner Solutions Factory等加速器。
例如,AWS的Partner Solutions Factory让合作伙伴能够与AWS专家就系统架构、设计、演示以及其他资源展开协作。与此同时,AWS Solutions Constructs是AWS Cloud Development Kit的开源扩展,可提供多服务、架构良好的模式,用于在代码中快速定义解决方案,以打造可预测的、可复用的基础设施。
Borno说:“这些都是为了帮助我们的合作伙伴开发高质量的、值得信赖的生成式AI解决方案和产品。”
“我们的客户对这项技术非常热情,但不知道从哪里开始,以及他们可以从中获得什么价值。我们希望确保我们的合作伙伴能够吸引客户,并且他们正在确定一些用例子集。然后我们可以通过概念验证、领域专家和逆向工作的方法为他们提供支持。在这方面,我们希望确保我们尽快将技术和利益交到客户手中,我们的合作伙伴至关重要。”
好文章,需要你的鼓励
这项研究针对现代文档检索系统中的关键缺陷:独立处理文档片段导致丢失上下文信息。研究团队开发了ConTEB基准测试来评估模型利用文档级上下文的能力,并提出了InSeNT方法,结合后期分块和创新的对比学习策略。实验表明,上下文感知嵌入显著提升检索性能,尤其在处理非自包含文本片段时,同时保持计算效率,对分块策略更具鲁棒性,并且在语料库规模扩大时表现更佳。这一研究为更智能的文档检索系统铺平了道路。
这项由布朗大学和Cohere实验室研究者联合进行的研究全面分析了大型语言模型(LLM)安全研究中的语言不平等现象。通过系统回顾近300篇2020-2024年间的安全相关论文,研究发现LLM安全研究严重偏向英语,即使中文这样的高资源语言也仅获得英语十分之一的研究关注,且这一差距正在扩大。研究还揭示非英语语言很少作为独立研究对象,且英语安全研究常忽略语言覆盖文档化。为解决这一问题,研究者提出了三个未来方向:开发文化敏感的评估基准、创建多语言安全训练数据,以及深入理解跨语言安全泛化挑战。
这项研究提出了ChARM,一种创新的角色扮演AI奖励建模框架,通过行为自适应边界和自我进化策略大幅提升AI角色的真实性和一致性。研究团队创建了包含1,108个角色的RoleplayPref数据集,实验表明ChARM比传统模型提高了13%的偏好排名准确率,应用于DPO技术后在多项基准测试中达到了领先水平。这一突破将为娱乐、教育和心理健康支持等领域带来更加自然、个性化的AI互动体验。
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。