AWS首席执行官:我们正在“大力投资AI的所有领域”
对于全球最大的云公司AWS来说,过去的一个月相当漫长,AWS推出了一系列新的AI产品,并与Nvidia和Anthropic等公司进行合作。
在合作伙伴方面,AWS最近发布了一项新的生成式AI能力,主要针对那些希望在生成式AI市场专注更多机会的AWS合作伙伴,同时还与渠道巨头埃森哲建立了合作伙伴关系,以更好地推动AI的采用。
AWS公司首席执行官Adam Selipsky最近在LinkedIn上表示:“AWS正在大力投资AI的所有领域,以促进客户创新,其中包括我们的AI数字助手Amazon Q,我们用于访问最新技术模型的全托管服务Amazon Bedrock,以及我们自己定制设计的芯片。”
这家总部位于西雅图的云巨头在2023年第四季度收入达到创纪录的242亿美元,意味着AWS目前的年运行率达到970亿美元。
下面就让我们来看看合作伙伴、投资者和客户需要了解的关于AWS五个最大的AI计划。
Anthropic全新GenAI Claude 3 Sonnet和Haiku模型现已在Amazon Bedrock上发布
AWS首席执行官Selipsky近日表示,目前Amazon Bedrock上已经有超过10000家活跃客户。
Bedrock是AWS旗舰的生成式AI平台,允许客户使用Amazon和Anthropic Claude等第三方基础模型构建和扩展生成式AI应用。
Selipsky表示:“Anthropic新的Claude 3 Haiku模型现已在Amazon Bedrock上提供!Haiku旨在成为市场上智能类别中最快、最具成本效益的模型,能够以闪电般的速度回答查询请求。与其他新的Claude 3模型一样,Haiku还具有图像到文本的视觉功能,这意味着可以分析图像、文档、图表和其他数据格式。”
除了Anthropic在Bedrock上推出的新Haiku AI模型之外,AWS还表示,Anthropic Sonnet现已在Bedrock上推出。
Selipsky表示:“今天在Amazon Bedrock上发售:Anthropic全新的高性能Claude 3基础模型Sonnet。我们正在通过这些新增功能加强与Anthropic的深度合作,我们知道客户会喜欢展示令人印象深刻的、先进智能的下一代模型。”
AWS和Nvidia发布新产品,在AI领域展开联合创新
AWS的目标是加强与Nvidia的联合创新,Selipsky表示:“我们将继续让AWS成为在云中运行Nvidia GPU的最佳选择。”
本周的Nvidia在GTC大会上最重要的发布之一,就是Nvidia最新的Blackwell GPU平台,该平台将让大规模AI模型的推理性能提高30倍,能耗降低25倍。
Nvidia的Blackwell平台即将登陆AWS云。AWS表示,将在AWS云平台上提供Nvidia GB200 Grace Blackwell Superchip和B100 Tensor Core GPU。
Selipsky表示:“我们不仅将提供在AWS上无缝运行的Nvidia全新Grace Blackwell GPU平台,还将其与我们行业领先的网络、虚拟化和安全功能进行集成,使客户能够更快速、更大规模、更安全地构建和运行数万亿参数的大型语言模型。”
此外,AWS很快将提供新的基于Nvidia Grace Blackwell GPU的Amazon EC2实例和Nvidia DGX Cloud,以加速在数万亿参数大型语言模型上构建和运行推理任务的性能。
Selipsky表示:“Nvidia和AWS的工程师还联手开发了一款专门在AWS上构建的AI超级计算机,用于Nvidia自己的AI研发工作。它将配备20K+ GB200超级芯片,能够处理414 exaflops的海量数据。”
AWS生成式AI合作伙伴新能力
在合作伙伴方面,AWS最近推出了新的AWS Generative AI Competency,旨在吸引那些在实施生成式AI方面拥有熟练技术和客户成功记录的合作伙伴。
Selipsky表示:“这些合作伙伴利用Amazon Bedrock、Amazon Q和Amazon SageMaker JumpStart等技术,在跨行业构建和部署突破性应用方面拥有深厚的专业知识,我们的AWS 生成式AI能力型合作伙伴将使客户能够比以往更轻松地通过企业级安全性和隐私、基础模型选择、生成式AI应用以及高性能、低成本的基础设施进行创新。”
AWS Generative AI Competency中将包括AWS Partner Network (APN) Technology Partners以及APN Services Partners。
软件领域的合作伙伴必须展现他们在这些方面的熟练程度:生成式AI应用、基础模型和应用开发;或者是在基础设施和数据方面。服务领域的合作伙伴需要展现出在端到端生成式AI咨询方面的熟练程度。
AWS、埃森哲和Anthropic联手推动企业生成式AI采用
渠道合作伙伴巨头埃森哲正在与AWS和Anthropic合作,帮助那些受高度监管行业的客户采用和扩展生成式AI技术。
此次合作让组织能够通过Amazon Bedrock、埃森哲的服务和加速器访问Anthropic的AI模型,以定制和微调Anthropic的Claude模型以满足特定需求,包括埃森哲的新型生成式AI Switchboard。
Accenture、Anthropic和AWS的团队还将在提示和平台工程方面为客户提供帮助,提供有关如何在Bedrock或者Amazon SageMaker上部署定制模型的最佳实践。
此举旨在增强AWS和Claude在知识管理、预测和分析、监管文件生成等特定行业应用的能力。
埃森哲技术集团首席执行官Karthik Narain在最近的一份声明中表示:“我们与AWS和Anthropic的合作将一切进行结合,帮助客户更快地从实验转向价值实现。我们看到了模型定制服务在高度监管行业中的最大潜力,在这些行业中,AI模型需要进行定制,以遵守特定的合规性、准确性和安全性要求。”
此外,超过1400名埃森哲工程师将接受培训,成为在AWS上使用Anthropic模型的专家,能够为部署生成式AI应用的客户提供端到端支持。
Amazon SageMaker与Nvidia NIM集成
Nvidia近日推出的另一款重大AI产品:Amazon SageMaker与Nvidia NIM推理微服务集成。
此次集成旨在推动生成式AI应用和新用例的开发。客户可以利用该产品快速部署经过预编译和优化的基础模型,这些模型可以在Nvidia GPU上运行到SageMaker,从而缩短生成式AI应用的上市时间。
Selipsky表示:“AWS在帮助客户构建和扩展生成式AI应用方面处于领先地位,客户可以轻松访问最新的、最佳的基础模型,并选择适合他们工作负载的芯片。”
Amazon SageMaker与Nvidia NIM微服务进行集成的目标是帮助企业进一步优化在GPU上运行基础模型的性价比。
好文章,需要你的鼓励
在“PEC 2025 AI创新者大会暨第二届提示工程峰会”上,一场以“AIGC创作新范式——双脑智能时代:心智驱动的生产力变革”为主题的分论坛,成为现场最具张力的对话空间。
人民大学团队开发了Search-o1框架,让AI在推理时能像侦探一样边查资料边思考。系统通过检测不确定性词汇自动触发搜索,并用知识精炼模块从海量资料中提取关键信息无缝融入推理过程。在博士级科学问题测试中,该系统整体准确率达63.6%,在物理和生物领域甚至超越人类专家水平,为AI推理能力带来突破性提升。
Linux Mint团队计划加快发布周期,在未来几个月推出两个新版本。LMDE 7代号"Gigi"基于Debian 13开发,将包含libAdapta库以支持Gtk4应用的主题功能。新版本将停止提供32位版本支持。同时Cinnamon桌面的Wayland支持持续改进,在菜单、状态小程序和键盘输入处理方面表现更佳,有望成为完整支持Wayland的重要桌面环境之一。
Anthropic研究团队开发的REINFORCE++算法通过采用全局优势标准化解决了AI训练中的"过度拟合"问题。该算法摒弃了传统PPO方法中昂贵的价值网络组件,用统一评价标准替代针对单个问题的局部基准,有效避免了"奖励破解"现象。实验显示,REINFORCE++在处理新问题时表现更稳定,特别是在长文本推理和工具集成场景中展现出优异的泛化能力,为开发更实用可靠的AI系统提供了新思路。