AWS首席执行官:我们正在“大力投资AI的所有领域”
对于全球最大的云公司AWS来说,过去的一个月相当漫长,AWS推出了一系列新的AI产品,并与Nvidia和Anthropic等公司进行合作。
在合作伙伴方面,AWS最近发布了一项新的生成式AI能力,主要针对那些希望在生成式AI市场专注更多机会的AWS合作伙伴,同时还与渠道巨头埃森哲建立了合作伙伴关系,以更好地推动AI的采用。
AWS公司首席执行官Adam Selipsky最近在LinkedIn上表示:“AWS正在大力投资AI的所有领域,以促进客户创新,其中包括我们的AI数字助手Amazon Q,我们用于访问最新技术模型的全托管服务Amazon Bedrock,以及我们自己定制设计的芯片。”
这家总部位于西雅图的云巨头在2023年第四季度收入达到创纪录的242亿美元,意味着AWS目前的年运行率达到970亿美元。
下面就让我们来看看合作伙伴、投资者和客户需要了解的关于AWS五个最大的AI计划。
Anthropic全新GenAI Claude 3 Sonnet和Haiku模型现已在Amazon Bedrock上发布
AWS首席执行官Selipsky近日表示,目前Amazon Bedrock上已经有超过10000家活跃客户。
Bedrock是AWS旗舰的生成式AI平台,允许客户使用Amazon和Anthropic Claude等第三方基础模型构建和扩展生成式AI应用。
Selipsky表示:“Anthropic新的Claude 3 Haiku模型现已在Amazon Bedrock上提供!Haiku旨在成为市场上智能类别中最快、最具成本效益的模型,能够以闪电般的速度回答查询请求。与其他新的Claude 3模型一样,Haiku还具有图像到文本的视觉功能,这意味着可以分析图像、文档、图表和其他数据格式。”
除了Anthropic在Bedrock上推出的新Haiku AI模型之外,AWS还表示,Anthropic Sonnet现已在Bedrock上推出。
Selipsky表示:“今天在Amazon Bedrock上发售:Anthropic全新的高性能Claude 3基础模型Sonnet。我们正在通过这些新增功能加强与Anthropic的深度合作,我们知道客户会喜欢展示令人印象深刻的、先进智能的下一代模型。”
AWS和Nvidia发布新产品,在AI领域展开联合创新
AWS的目标是加强与Nvidia的联合创新,Selipsky表示:“我们将继续让AWS成为在云中运行Nvidia GPU的最佳选择。”
本周的Nvidia在GTC大会上最重要的发布之一,就是Nvidia最新的Blackwell GPU平台,该平台将让大规模AI模型的推理性能提高30倍,能耗降低25倍。
Nvidia的Blackwell平台即将登陆AWS云。AWS表示,将在AWS云平台上提供Nvidia GB200 Grace Blackwell Superchip和B100 Tensor Core GPU。
Selipsky表示:“我们不仅将提供在AWS上无缝运行的Nvidia全新Grace Blackwell GPU平台,还将其与我们行业领先的网络、虚拟化和安全功能进行集成,使客户能够更快速、更大规模、更安全地构建和运行数万亿参数的大型语言模型。”
此外,AWS很快将提供新的基于Nvidia Grace Blackwell GPU的Amazon EC2实例和Nvidia DGX Cloud,以加速在数万亿参数大型语言模型上构建和运行推理任务的性能。
Selipsky表示:“Nvidia和AWS的工程师还联手开发了一款专门在AWS上构建的AI超级计算机,用于Nvidia自己的AI研发工作。它将配备20K+ GB200超级芯片,能够处理414 exaflops的海量数据。”
AWS生成式AI合作伙伴新能力
在合作伙伴方面,AWS最近推出了新的AWS Generative AI Competency,旨在吸引那些在实施生成式AI方面拥有熟练技术和客户成功记录的合作伙伴。
Selipsky表示:“这些合作伙伴利用Amazon Bedrock、Amazon Q和Amazon SageMaker JumpStart等技术,在跨行业构建和部署突破性应用方面拥有深厚的专业知识,我们的AWS 生成式AI能力型合作伙伴将使客户能够比以往更轻松地通过企业级安全性和隐私、基础模型选择、生成式AI应用以及高性能、低成本的基础设施进行创新。”
AWS Generative AI Competency中将包括AWS Partner Network (APN) Technology Partners以及APN Services Partners。
软件领域的合作伙伴必须展现他们在这些方面的熟练程度:生成式AI应用、基础模型和应用开发;或者是在基础设施和数据方面。服务领域的合作伙伴需要展现出在端到端生成式AI咨询方面的熟练程度。
AWS、埃森哲和Anthropic联手推动企业生成式AI采用
渠道合作伙伴巨头埃森哲正在与AWS和Anthropic合作,帮助那些受高度监管行业的客户采用和扩展生成式AI技术。
此次合作让组织能够通过Amazon Bedrock、埃森哲的服务和加速器访问Anthropic的AI模型,以定制和微调Anthropic的Claude模型以满足特定需求,包括埃森哲的新型生成式AI Switchboard。
Accenture、Anthropic和AWS的团队还将在提示和平台工程方面为客户提供帮助,提供有关如何在Bedrock或者Amazon SageMaker上部署定制模型的最佳实践。
此举旨在增强AWS和Claude在知识管理、预测和分析、监管文件生成等特定行业应用的能力。
埃森哲技术集团首席执行官Karthik Narain在最近的一份声明中表示:“我们与AWS和Anthropic的合作将一切进行结合,帮助客户更快地从实验转向价值实现。我们看到了模型定制服务在高度监管行业中的最大潜力,在这些行业中,AI模型需要进行定制,以遵守特定的合规性、准确性和安全性要求。”
此外,超过1400名埃森哲工程师将接受培训,成为在AWS上使用Anthropic模型的专家,能够为部署生成式AI应用的客户提供端到端支持。
Amazon SageMaker与Nvidia NIM集成
Nvidia近日推出的另一款重大AI产品:Amazon SageMaker与Nvidia NIM推理微服务集成。
此次集成旨在推动生成式AI应用和新用例的开发。客户可以利用该产品快速部署经过预编译和优化的基础模型,这些模型可以在Nvidia GPU上运行到SageMaker,从而缩短生成式AI应用的上市时间。
Selipsky表示:“AWS在帮助客户构建和扩展生成式AI应用方面处于领先地位,客户可以轻松访问最新的、最佳的基础模型,并选择适合他们工作负载的芯片。”
Amazon SageMaker与Nvidia NIM微服务进行集成的目标是帮助企业进一步优化在GPU上运行基础模型的性价比。
好文章,需要你的鼓励
IBM Spyre加速器将于本月晚些时候正式推出,为z17大型机、LinuxONE 5和Power11系统等企业级硬件的AI能力提供显著提升。该加速器基于定制芯片的PCIe卡,配备32个独立加速器核心,专为处理AI工作负载需求而设计。系统最多可配置48张Spyre卡,支持多模型AI处理,包括生成式AI和大语言模型,主要应用于金融交易欺诈检测等关键业务场景。
加拿大女王大学研究团队首次对开源AI生态系统进行端到端许可证合规审计,发现35.5%的AI模型在集成到应用时存在许可证违规。他们开发的LicenseRec系统能自动检测冲突并修复86.4%的违规问题,揭示了AI供应链中系统性的"许可证漂移"现象及其法律风险。
意大利初创公司Ganiga开发了AI驱动的智能垃圾分拣机器人Hoooly,能自动识别并分类垃圾和可回收物。该公司产品包括机器人垃圾桶、智能盖子和废物追踪软件,旨在解决全球塑料回收率不足10%的问题。2024年公司收入50万美元,已向谷歌和多个机场销售超120台设备,计划融资300万美元并拓展美国市场。
这项由剑桥大学、清华大学和伊利诺伊大学合作的研究首次将扩散大语言模型引入语音识别领域,开发出Whisper-LLaDA系统。该系统具备双向理解能力,能够同时考虑语音的前后文信息,在LibriSpeech数据集上实现了12.3%的错误率相对改进,同时在大多数配置下提供了更快的推理速度,为语音识别技术开辟了新的发展方向。