AWS首席执行官:我们正在“大力投资AI的所有领域”
对于全球最大的云公司AWS来说,过去的一个月相当漫长,AWS推出了一系列新的AI产品,并与Nvidia和Anthropic等公司进行合作。
在合作伙伴方面,AWS最近发布了一项新的生成式AI能力,主要针对那些希望在生成式AI市场专注更多机会的AWS合作伙伴,同时还与渠道巨头埃森哲建立了合作伙伴关系,以更好地推动AI的采用。
AWS公司首席执行官Adam Selipsky最近在LinkedIn上表示:“AWS正在大力投资AI的所有领域,以促进客户创新,其中包括我们的AI数字助手Amazon Q,我们用于访问最新技术模型的全托管服务Amazon Bedrock,以及我们自己定制设计的芯片。”
这家总部位于西雅图的云巨头在2023年第四季度收入达到创纪录的242亿美元,意味着AWS目前的年运行率达到970亿美元。
下面就让我们来看看合作伙伴、投资者和客户需要了解的关于AWS五个最大的AI计划。
Anthropic全新GenAI Claude 3 Sonnet和Haiku模型现已在Amazon Bedrock上发布
AWS首席执行官Selipsky近日表示,目前Amazon Bedrock上已经有超过10000家活跃客户。
Bedrock是AWS旗舰的生成式AI平台,允许客户使用Amazon和Anthropic Claude等第三方基础模型构建和扩展生成式AI应用。
Selipsky表示:“Anthropic新的Claude 3 Haiku模型现已在Amazon Bedrock上提供!Haiku旨在成为市场上智能类别中最快、最具成本效益的模型,能够以闪电般的速度回答查询请求。与其他新的Claude 3模型一样,Haiku还具有图像到文本的视觉功能,这意味着可以分析图像、文档、图表和其他数据格式。”
除了Anthropic在Bedrock上推出的新Haiku AI模型之外,AWS还表示,Anthropic Sonnet现已在Bedrock上推出。
Selipsky表示:“今天在Amazon Bedrock上发售:Anthropic全新的高性能Claude 3基础模型Sonnet。我们正在通过这些新增功能加强与Anthropic的深度合作,我们知道客户会喜欢展示令人印象深刻的、先进智能的下一代模型。”
AWS和Nvidia发布新产品,在AI领域展开联合创新
AWS的目标是加强与Nvidia的联合创新,Selipsky表示:“我们将继续让AWS成为在云中运行Nvidia GPU的最佳选择。”
本周的Nvidia在GTC大会上最重要的发布之一,就是Nvidia最新的Blackwell GPU平台,该平台将让大规模AI模型的推理性能提高30倍,能耗降低25倍。
Nvidia的Blackwell平台即将登陆AWS云。AWS表示,将在AWS云平台上提供Nvidia GB200 Grace Blackwell Superchip和B100 Tensor Core GPU。
Selipsky表示:“我们不仅将提供在AWS上无缝运行的Nvidia全新Grace Blackwell GPU平台,还将其与我们行业领先的网络、虚拟化和安全功能进行集成,使客户能够更快速、更大规模、更安全地构建和运行数万亿参数的大型语言模型。”
此外,AWS很快将提供新的基于Nvidia Grace Blackwell GPU的Amazon EC2实例和Nvidia DGX Cloud,以加速在数万亿参数大型语言模型上构建和运行推理任务的性能。
Selipsky表示:“Nvidia和AWS的工程师还联手开发了一款专门在AWS上构建的AI超级计算机,用于Nvidia自己的AI研发工作。它将配备20K+ GB200超级芯片,能够处理414 exaflops的海量数据。”
AWS生成式AI合作伙伴新能力
在合作伙伴方面,AWS最近推出了新的AWS Generative AI Competency,旨在吸引那些在实施生成式AI方面拥有熟练技术和客户成功记录的合作伙伴。
Selipsky表示:“这些合作伙伴利用Amazon Bedrock、Amazon Q和Amazon SageMaker JumpStart等技术,在跨行业构建和部署突破性应用方面拥有深厚的专业知识,我们的AWS 生成式AI能力型合作伙伴将使客户能够比以往更轻松地通过企业级安全性和隐私、基础模型选择、生成式AI应用以及高性能、低成本的基础设施进行创新。”
AWS Generative AI Competency中将包括AWS Partner Network (APN) Technology Partners以及APN Services Partners。
软件领域的合作伙伴必须展现他们在这些方面的熟练程度:生成式AI应用、基础模型和应用开发;或者是在基础设施和数据方面。服务领域的合作伙伴需要展现出在端到端生成式AI咨询方面的熟练程度。
AWS、埃森哲和Anthropic联手推动企业生成式AI采用
渠道合作伙伴巨头埃森哲正在与AWS和Anthropic合作,帮助那些受高度监管行业的客户采用和扩展生成式AI技术。
此次合作让组织能够通过Amazon Bedrock、埃森哲的服务和加速器访问Anthropic的AI模型,以定制和微调Anthropic的Claude模型以满足特定需求,包括埃森哲的新型生成式AI Switchboard。
Accenture、Anthropic和AWS的团队还将在提示和平台工程方面为客户提供帮助,提供有关如何在Bedrock或者Amazon SageMaker上部署定制模型的最佳实践。
此举旨在增强AWS和Claude在知识管理、预测和分析、监管文件生成等特定行业应用的能力。
埃森哲技术集团首席执行官Karthik Narain在最近的一份声明中表示:“我们与AWS和Anthropic的合作将一切进行结合,帮助客户更快地从实验转向价值实现。我们看到了模型定制服务在高度监管行业中的最大潜力,在这些行业中,AI模型需要进行定制,以遵守特定的合规性、准确性和安全性要求。”
此外,超过1400名埃森哲工程师将接受培训,成为在AWS上使用Anthropic模型的专家,能够为部署生成式AI应用的客户提供端到端支持。
Amazon SageMaker与Nvidia NIM集成
Nvidia近日推出的另一款重大AI产品:Amazon SageMaker与Nvidia NIM推理微服务集成。
此次集成旨在推动生成式AI应用和新用例的开发。客户可以利用该产品快速部署经过预编译和优化的基础模型,这些模型可以在Nvidia GPU上运行到SageMaker,从而缩短生成式AI应用的上市时间。
Selipsky表示:“AWS在帮助客户构建和扩展生成式AI应用方面处于领先地位,客户可以轻松访问最新的、最佳的基础模型,并选择适合他们工作负载的芯片。”
Amazon SageMaker与Nvidia NIM微服务进行集成的目标是帮助企业进一步优化在GPU上运行基础模型的性价比。
好文章,需要你的鼓励
AI颠覆预计将在2026年持续,推动企业适应不断演进的技术并扩大规模。国际奥委会、Moderna和Sportradar的领导者在纽约路透社峰会上分享了他们的AI策略。讨论焦点包括自建AI与购买第三方资源的选择,AI在内部流程优化和外部产品开发中的应用,以及小型模型在日常应用中的潜力。专家建议,企业应将AI建设融入企业文化,以创新而非成本节约为驱动力。
字节跳动等机构联合发布GAR技术,让AI能同时理解图像的全局和局部信息,实现对多个区域间复杂关系的准确分析。该技术通过RoI对齐特征重放方法,在保持全局视野的同时提取精确细节,在多项测试中表现出色,甚至在某些指标上超越了体积更大的模型,为AI视觉理解能力带来重要突破。
Spotify在新西兰测试推出AI提示播放列表功能,用户可通过文字描述需求让AI根据指令和听歌历史生成个性化播放列表。该功能允许用户设置定期刷新,相当于创建可控制算法的每周发现播放列表。这是Spotify赋予用户更多控制权努力的一部分,此前其AI DJ功能也增加了语音提示选项,反映了各平台让用户更好控制算法推荐的趋势。
Inclusion AI团队推出首个开源万亿参数思维模型Ring-1T,通过IcePop、C3PO++和ASystem三项核心技术突破,解决了超大规模强化学习训练的稳定性和效率难题。该模型在AIME-2025获得93.4分,IMO-2025达到银牌水平,CodeForces获得2088分,展现出卓越的数学推理和编程能力,为AI推理能力发展树立了新的里程碑。