AWS销售负责人访谈:AWS如何引领生成式AI发展

云计算领域,AWS能否保持领先地位?

二十多年来,AWS一直是云计算领域无可争议的领导者,但最近8个月随着AI应用的激增,微软等竞争对手正在迅速占据一席之地。

突如其来的生成式AI推动着开发者和企业纷纷拥抱AI,而微软对OpenAI高达100亿美金的巨额投资,使其成为潜在的行业领跑者。伴随着这些变化,人们开始质疑AWS在生成式AI这个新市场中的领导地位和定位。

AWS能否保持其领先地位,还是会失去相对于微软和其他新兴竞争者的领先地位?我们想从AWS那里直接得到答案,因此我们采访了AWS销售和营销高级副总裁Matt Garman。

Garman曾经领导EC2云计算计划,拥有独特的技术专业知识和领导力组合。现在,他负责引导AWS原有的云计算业务走向新的、快速增长的生成式AI市场。

AWS销售负责人访谈:AWS如何引领生成式AI发展

在采访中,他指出了生成式AI带来的重要机遇和挑战。以下是这次对话的摘要:

解决人工智能潜在的道德问题:生成式AI正在赢得开发者和企业越来越多的认可。然而,各种企业组织已经公开表达了他们对于滥用和知识产权的担忧。Garman澄清说,这些企业并非是禁止生成式AI,而是制定了知识产权保护措施。随着AI技术的激增,企业将需要进行调整以管理不断增长的AI应用。

促进AI采用方面,Garman承认,需要采取多方面的战略来服务多样化的客户群。AWS具有包容性的产品战略旨在通过从基础设施层延伸到应用层的解决方案来满足这种多样性。他重点介绍了Hugging Face、Stability.、Runway AI和Anthropic等初创公司是如何利用AWS的云功能来快速扩展的,从而实现了那些通常仅限于大企业使用的技术的普遍使用。

保护数据,扩大选择:生成式AI的主要关注点是知识产权的安全性和对数据结果的信任。Garman解释了AWS为确保数据安全所采取的方法,他说:“对于第一方模型,我们会非常谨慎地选择哪些数据用于构建该模型。”AWS还在Jumpstart中提供了开源模型,让客户能够在Virtual Private Cloud中操作模型。

通过AI增强人类的能力:行业观察家预测,AI将显着实现各种任务的自动化,并增强人类能力,从而彻底改变商业模式和社会。在这种背景下,Garman将生成式AI视为一种提高效率和效果的、极其强大的工具。他澄清说,AI不会很快取代人类。相反,它将增强人类的能力,使人类能够更加专注于工作的创新方面。

利用GPU创新AI的限制和机遇:市场对AI和训练模型用的GPU需求不断增长,这是当今的一个紧迫问题。AWS多年来一直投资于机器学习和AI基础设施,致力于应对这些挑战。AWS称它在云中运营着规模最大、性能最高的GPU集群。当意识到与功耗相关的潜在环境问题时,AWS计划到2025年之前为其全球所有数据中心提供可再生能源供电方式。

他说:“生成式AI是一种极其强大的能力,有机会让我们变得更加高效、更加有效,但它不会很快地取代人类。”AWS准备通过数据安全性、模型多功能性、管理与GPU和定制芯片相关的挑战和机遇等一系列策略来引领生成式AI的未来。

以下是对Garman的完整采访,为了清晰起见,进行了少量编辑:

Amazon做AI已经很长时间了。让我们首先澄清一下AWS在AI领域的地位。请您简要解释一下AWS在机器学习和AI方面的历史、发展轨迹和经验吧。

在Amazon和AWS,我们一直非常关注人工智能和机器学习,坦率地说,我们一直致力于这个领域长达20年,并且知道生成式AI正在并且将继续改变企业的业务方式。我们在这方面进行了很长一段时间的专业知识积累。AWS对于生成式AI彻底改变众多行业和企业的潜力感到非常兴奋,我们希望确保客户能够以对其业务有意义的、安全且有效的方式利用生成式AI。

AI是我们一直深度投资的一个领域,也是我们充满热情的一个领域,AI将帮助我们的AWS客户和世界各地的客户真正实现业务转型。我们认为,AWS采用的方法最终就是大多数客户希望在他们运行应用中使用和构建生成式AI的方式。

一些企业禁止员工使用ChatGPT。就连监管环节也开始露出丑陋的一面。为什么人们对AI感到恐惧?您对此持何立场?您如何看待此事的进展?

当ChatGPT问世时,确实激发了人们的灵感,让很多人真正了解了人工智能的力量。它很好地让公众意识到什么是可能实现的事情。所以我想你看到很多人都非常兴奋并想快速加入其中。当你观察到一些大银行或者其他一些企业正在做的事情时,你会发现,他们并没有完全禁止生成式AI的想法。他们要求自己的团队谨慎地将自己的IP放入这些系统中。这些系统(如ChatGPT和其他系统)的学习方式中,一部分是当你输入问题时,当你把数据放入该系统时,它会采用该系统,将其集成到它所知道的内容中,然后构建一个更广泛的知识库,基于这个知识库来回答问题。

许多企业正在采取措施以制定正确的控制措施和安全措施,以免他们自己的知识产权泄露到这些(公共)模型中。我认为这是合适的。当我们与客户和企业交谈时发现,他们最担心的事情之一是,他们明白,在未来他们自己的知识产权和数据实际上将成为最有价值和最能体现差异化的事物之一。他们有前进的动力。因此,他们采取的是控制措施,确保他们对自己IP拥有恰当的控制权,以便他们的员工不会无意中将其分享到其中一个模型中,被上传,然后可供所有人使用,从而失去这个IP。

他们没有意识到,他们实际上是在用自己的知识产权为修订后的语料库做出贡献,然后这些语料库就会涉及到围绕知识产权的各种问题,并从本质上发布它。想象一下,如果你是一家银行,你希望确保你的数据不会被加载到模型中,以防竞争对手学习模仿你所做的事情。

企业希望如何使用生成式AI,和独立软件供应商如何使用生成式AI,这两者有哪些主要区别?

每个人都希望恰当地使用生成式AI。生成式AI是一项强大的技术,有潜力帮助我们提高效率、真正地改变客户体验。我认为,当你思考这些差异,以及初创公司和大型企业的思考方式,或者是SaaS提供商的思考方式时,你就会知道,其中很多并不完全是你想象的那样,他们可能出于不同的技术采用阶段。

如果你是一家初创公司,你会想知道如何快速实现目标,如何快速迭代?如何才能获得这些通常只有真正的大公司才能获得的技术?这就是云和AWS能够实现的事情之一。所以你会看到像Hugging Face、Stability这样的初创公司。Anthropic是建立在AWS云上的,这样他们可以快速获得大规模容量,可以快速迭代,可以学习,并且可以成长。

很多初创公司喜欢使用云。如你所知,这就是AWS从一开始就作为价值主张成长起来的地方,生成式AI也不例外。

所以,当你观察规模较大的独立软件厂商时,情况也是一样的。我认为他们喜欢的事情之一是扩展能力、测试新功能的能力——这些规模较大的成熟ISV正在做一些非常酷的事情,他们推出了真正创新的新技术和功能,所有这些都是基于生成式AI的。

而企业的需求,和开发者或者初创公司是略有不同的。例如,企业可能需要CodeWhisperer等类似SaaS的体验,而开发者想要的是使用Bedrock作为生成式AI的构建模块。你如何将这些混合在一起?

我们的观点是,不存在同质客户这样的事情。客户在使用这项技术方面有不同的方式,有些人是把它作为打包产品中的一个层,有些人是把它作为基础设施层的一部分,我认为这就是AWS真正的亮点所在。

对于那些想要构建自己模型的人来说,我们自己构建芯片,这将越来越成为我们的一个竞争优势。长期以来我们一直是运行GPU基础设施的最佳场所。我们的客户喜欢在AWS中运行大规模GPU集群,我们还构建了自己的基础设施,我们认为,这些基础设施具有成本和性能上的优势……用于大型训练集群的Trainium,还有用于运行大型推理集群的Inferentia。

如果你考虑SageMaker,它几乎是每个机器学习开发者所选择的开发平台,可以确保他们正在开发安全的AI,确保你正在测试各种不同的模型,以了解哪些模型真正适合你的应用。

Bedrock正在为各种模型提供易于使用的API,无论你是否大量使用这些基础模型,人们都希望能够将这些模型用于不同的用途,而且他们甚至可能想要把不同的模型结合在一起使用。

几乎每个想要使用生成式AI的客户都希望确保在一个安全的环境中进行操作,在这个环境中,他们知道自己的IP是安全的,是可以解释的,有尽可能多的信息,尽可能多地了解模型是如何创建的。这就是我们关注的重点:我们如何才能向企业保证,他们拥有的是最高性能的基础设施,同时也是最好的、最安全的平台,用于构建生成式AI,以便他们知道他们的数据和知识产权不会受到影响,不会泄露到他们无法控制的地方。

你们如何确保安全?关键价值主张是什么?

我们的第一方模型有很多东西。我们有自己的模型,我们将其称为Titan模型。从版权角度来看,我们会非常谨慎地选择哪些数据用于构建该模型,我们对此非常清楚。客户知道他们可以放心,我们有权使用用于构建该模型的数据进行构建。

我们在Jumpstart中提供诸如开源模型之类的东西,Jumpstart是SageMaker的一部分,用于提供预训练的开源模型,以便在部署之前进行训练和调整。当你在其中一些开源模型上运行的时候,很多模型会变得非常强大,并且在许多情况下要优于当今的一些专有模型。客户可以完全在自己专有的VPC[虚拟私有云]或者网络内运行这些服务,这样他们就可以运行该模型。他们可以将其与任何类型的外部连接隔离,确保他们在该模型中使用的任何内容都是保留在模型内部的,保留在VPC内部的。

和Bedrock相同,对于任何调整Bedrock模型(这是我们在Titan模型中拥有的关键功能之一)的人来说,我们都会确保他们的数据不会泄漏回核心基础模型,而且模型是保留在客户VPC内部的。所以他们对于其他数据工作所采取的控制措施,和对于生成式AI来说都是一样的。

AWS有很多初始功能可供选择,你提到你有第一方模型,OpenAI有他们的模型,但它不在AWS上,然后还有通过Bedrock的第三方模型。而且最近这一波开源创新浪潮,就在过去的一个半月里,你看到了巨大的激增。客户什么时候会想要使用你们的主要模型,他们神之后想要使用一些类似Bedrock的长尾产品和开源产品?你如何在这些之间取得平衡?

我们的目标,是为客户提供能够运行最适合其应用的选择。例如,针对金融服务客户优化的模型,可能并不是针对基因组数据优化的模型,也可能不是最适合电子商务或图像或任何其他任务的模型。另一个例子是Stability AI,Stability目前对于图像来说是一个很好的模型,但对于文本来说却不是。顺便说一句,这些模型会随着时间的推移而改变,我们希望客户能够挑选出他们想要用于最佳用途的最佳模型。

还有SageMaker。我们让客户可以轻松地进行A/B测试。在云中你就可以做到这一点,不必花费数十亿美元来构建自己的模型。你可以利用其中的一些模型,并且测试模型A的性能是否优于模型B,或者某些模型组合是否实际上是最适合你的模型。

随着时间的推移,人们会在其中一些基础模型的基础上进行调整和构建,从而拥有属于自己的模型,对其进行调整,然后从中浓缩。这就是他们在生产中实际使用的东西。我们希望让他们能够非常轻松地完成这个过程,但要以一种经济有效且安全的方式,以便实际使用这些模型并对其进行扩展。未来成本是人们关注的一个问题,他们很担心生成式AI的成本,无论是Amazon的第一方模型还是开源的或其他专有的模型,我们的目标都是随着时间的推移支持每一个模型。

生成式AI让我想起了AWS的早期,当时也有同样的情况。我应该建立一个数据中心并提供所有这些东西,还是将其放在云中并获得即时价值和可变弹性?我的意思是,同样的事情也发生在生成式AI和其他基础模型上。如果你愿意,你也可以自己构建,那就祝你好运了,或者混合搭配,自己编写代码。

没错,随着时间的推移,你会看到我们在向客户提供的一些应用中,会越来越多地利用生成式AI,CodeWhisperer就是一个很好的例子。它是一个编码助手,但仍然考虑到了企业的需求,我们内置了自动推理功能,以确保编写出代码的安全性。如果我们向你展示来自开源的代码示例,我们有能力强调,许可证是什么,确保你想要使用来自开源的代码示例。

我们的重点与其他人有些不同。在 AWS,我们专注于如何利用生成式AI让我们的客户取得成功,并且减少生产力套件、搜索或任何其他事物的干扰。我们专注于确保我们的客户能够充分利用这些技术,我们从这些用例开始,然后从那里开始我们的工作。

我们看到AI承担了越来越多的任务,改变了人类的角色,增强了人类的能力。那么AI如何真正实现企业自动化和差异化?

我认为,生成式AI能是一种极其强大的能力,有机会让我们变得更加高效、更加有效。你知道,它不会很快取代人类。CodeWhisperer不会让你不再需要开发人员了,而且是让开发人员不必再编写定制代码了。它将让开发人员可以编写更安全的代码,这样开发人员就可以专注在一些创新的客户体验上,而不必担心编写代码所必需的阻塞和处理工作。我认为,未来的编码语言可能是英语的,那也没关系。

或者是声音的方式?

是的,完全正确。但它会用英语说出来,然后工具会将其翻译成代码。专业知识可能不理解Java或C++或类似东西的细微差别,但这没关系。它只是改变了一些技能,现在你只需要考虑你想要构建的应用,而不是如何构建。

这个模型会是“人类+AI>AI本身”吗?

100%,是的。这种情况将会持续很长一段时间,甚至可能永远。

图形处理单元的供应似乎变成了一个瓶颈。市场对AI训练和推理是有需求的。你认为这个行业的核心制约因素是什么?行业必须采取哪些措施才能缓解这个压力?

这其中有很多限制。我认为,关键的事情之一是构建其中一些基础模型需要大量的计算能力,可能需要数十亿美金的GPU,但又不仅仅是GPU,还有服务器、网络、数据中心、电力、电力,所有这些部分,对吗?很长一段时间以来,我们一直在构建这样的东西。

我们拥有云中最大的GPU集群。我们在云端拥有性能最佳的GPU集群,从长远来看,我认为,功率实际上是你必须真正考虑的事情之一,因为这些集群有可能达到数百兆瓦到千兆瓦的功率。你知道的,到2025年,我们将使用可再生能源运行我们所有的全球数据中心,这将会起到很大的帮助作用,因为电力有导致环境问题的风险。

我们需要考虑如何以很多不同的方式扩展这些GPU。我认为,这就是我们定制芯片的用武之地。是的,GPU非常棒。Nvidia在打造真正优秀的产品方面做得非常出色,并且他们将在很长一段时间内在这个领域发挥非常重要的作用。但我们也认为,定制设计的芯片还有发展空间,而且我们认为,像Trainium这样的产品是具有真正潜力的,随着时间的推移,可以帮助客户降低成本、降低功耗并提高性能。对于我们的客户和我们的业务来说,这是一种竞争优势,因为我们给客户提供了低成本的选择,在某些情况下,提供了可以超越GPU的性能。

AWS在芯片和物理层做了很多工作,AI真正的技术价值和商业价值以及作用是在整个堆栈中的。你能否分享一下你对生成式AI给整个堆栈带来的影响吗?

我认为将会出现全面的创新。每个行业都会有网络层的创新,计算层的创新,工具层的创新,支持服务层的创新,比如矢量数据库和其他类似的东西。每天都会有新的初创公司涌现,专注于这个工具链中的不同环节。

所有这些事情都将是非常有趣的,正如我们所讨论的,一直到应用堆栈,那里有各种各样的新技术。所以我认为,这是一项几乎可以应用于任何地方的技术。无论我们这个月谈论的是什么,六个月后可能会变得完全不同。有很多人在进行创新,这就是AWS如此出色的一部分原因。我们为人们提供了实现创新的平台。

我在报告中看到的是,目前AI方面有两种类型的客户。有些可以已经进入云端,有些客户还没有完全进入云端。当疫情带来重大转变的时候,以及现在生成式AI带来快速变化的时候,很明显,在云中“这个趋势就是你的朋友”。考虑到在疫情等重大社会消费变化期间观察到的各种有利趋势,身处于云端,将如何影响企业抓住生成式AI带来的机遇?

把所有数据和工作负载转移到云中,将让你能够适应不断变化的趋势和技术。生成式AI就是其中之一,每个客户和每个企业都必须真正考虑如何将其融入到他们所做的一切事情中。如果你的数据不在云端,那就更难了。首先就是要确保你的数据在AWS中,在数据湖中可用,你可以查看,你的计算和工作负载在那里,你有围绕这一切建立起来的结构。

许多已经踏上云之旅的客户都处于快速发展的良好状态,而有些客户则忙忙碌碌,因为他们意识到这是他们在自己数据中心内无法实现的功能,只是他们没有办法做到这一点。规模是不可能的。速度和技术正在不断发展,这在你自己数据中心不可能做到的。这是人们快速迁移到云的进一步证据和动力,但了解生成式AI,将在未来许多年改变他们的业务。

我们有OpenAI,目前在AWS上是不可用的,Anthropic在AWS上是可用的。我一直在与一些顶级企业的内部人士和风险投资公司沟通,他们都想要开放,他们想要更多的选择。很多人私下抱怨他们希望看到OpenAI能和Bedrock一起运行。你会通过Bedrock为Sam Altman提供OpenAI的大量客户吗?

当然。我认为所有客户都希望有选择。我希望客户感兴趣的每个生成式AI模型都可以运行在Bedrock和AWS中。

开源在生成式AI领域正在快速发展。客户和开发人员也希望开源。仅仅几个月的时间,就出现了大幅的增长。现在是早期的云AI时代,你们拥有大型模型,并且开源模型的长尾正在出现。你对模型的组合、开源和长尾有何看法?如何看待这些混合在一起带来的影响?

很难说。最近,我们从一些经过提炼的开源模型中看到了令人惊叹的结果。Facebook的LLaMA模型非常棒。本周刚刚有一个新模型推出,那就是LightOn,是一个更小的模型,但它在开源世界中的表现优于LLaMA。它是完全在在AWS上进行训练的。

有很多有趣的创新正在涌现。我认为,也总是需要这些非常大的核心模型,有助于提炼其中一些开源模型和专用模型。但这是一个快速变化的领域,很难说。这就是为什么我认为选择如此重要。AWS更愿意让客户在以后找到更喜欢的马时能够轻松更换他们的马。

对于初创企业你有什么建议?创业轨迹和第一代云是不一样的。你必须获得客户,但规模是一件大事。你如何看待下一代浪潮的到来?你对初创公司和企业有何建议?

我们的想法是,AWS对于初创公司和各种客户来说是一个很好的选择,实际上是一个接触客户的渠道。绝大多数企业和公司都在AWS中运营着他们的业务。但我们不会去构建广泛的创新技术。我们会提供很多东西,但还有很多东西是我们不会去构建的,合作伙伴是我们在AWS中所做一切事情的关键。我们有很多计划,从Marketplace一直到我们的渠道计划和认证,确保我们的合作伙伴能够以真正易于使用的、真正易于集成的方式,供我们的客户使用。

因此,我鼓励他们所有人看看我们在合作伙伴生态系统和Marketplace中拥有的一些计划,因为我们会发现,这是许多企业希望整合这些工具并广泛应用的方式之一。

来源:至顶网软件与服务频道

0赞

好文章,需要你的鼓励

2023

07/04

10:08

分享

点赞

邮件订阅