AWS今天在纽约AWS Summit峰会上宣布,将扩展完全托管的AI基础模型服务Bedrock,以包含来自Cohere、Anthropic和Stability AI的各种新模型,以及开发人员部署他们自动化代理执行复杂任务的能力。
Amazon Bedrock是AWS一项完全托管的服务,为客户提供了基础的生成式AI模型。客户可以使用该服务在安全环境中使用Amazon高性能基础设施上自己的数据来训练和微调模型,而无需进行任何管理。
生成式AI在众多行业中开放了各种各样的应用用例,在这些用例中,模型可用于充实公司的数据资源,以生成洞察、撰写电子邮件、进行研究、生成图表、生成艺术品等。
“生成式AI有潜力改变每一个应用、业务和行业。数据处理、计算和机器学习方面的进步正在加速各种规模AWS客户从实验到部署的转变,”AWS数据库、分析和机器学习副总裁Swami Sivasubramanian(如图)表示。
Cohere是Bedrock最新的基础模型提供商。Cohere提供了一个名为Command的基于文本的生成模型,专为企业级业务应用而设计。Command经过训练可以遵循用户的命令,并能够进行摘要、文案、对话、摘录和问答。Cohere还开发了一个名为Embed的文本理解模型,该模型提供了100多种语言的搜索和分类任务,使应用能够快速搜索文本中的上下文和含义。
除此之外还有Claude 2,这是Anthropic对Claude聊天机器人的最新升级版。它可以为每个文本提示接收最多100000个令牌,大约75000个单词,这意味着用户能够提交极长的文档,并让AI编写更长的文档作为响应,大约几千个令牌。
人工智能初创公司Stability AI,开发了文本到图像生成式AI模型Stable Diffusion,该公司正在通过Stable Diffusion XL 1.0将最新的生成图像模型迭代引入Bedrock。用户使用自然语言文本输入可以告诉SDXL 1.0他们想要它生成什么,从而生成生动而美丽的图像,通常具有更高级别的照片级真实感。最新型号相比前几代产品更加强大,带来卓越的品质以及图像合成和真实感方面的增强功能。
Stability AI公司创始人、首席执行官Emad Mostaque表示:“Stability AI依靠创新而蓬勃发展,我们在Amazon Bedrock上的基础模型Stable Diffusion反映了生成式AI领域最具开创性的发展。最新版本的基础模型 SDXL 1.0,其图像和构图细节比其前身有所改进,使Amazon Bedrock客户能够访问尖端的资源,并推进我们通过AI激活人类潜力的目标。”
今天AWS还在Amazon SageMaker JumpStart上发布了SDXL 1.0,一个为开发人员提供的机器学习中心,可提供对算法、模型和解决方案的访问。
Amazon Bedrock代理自动执行复杂的AI任务
尽管基础模型能够理解会话语言提示并生成文本或图像作为响应(用于摘要或问答等任务),但无法完成应用调用或与第三方系统交互等复杂任务。
为了实现这一目标,Amazon Bedrock将为开发人员引入完全托管的功能,以创建可以调用“代理”的生成式AI应用,“代理”可以将任务分解为多个步骤,从而按需完成一系列任务。
无需任何手动编码,Agents for Amazon Bedrock就可以自动分解任务并根据开发人员的需求生成编排计划,然后,代理通过应用编程接口安全地连接到企业数据。
例如,可以使用代理让生成式AI模型完成为员工设置休假请求或者预订飞机航班的任务。所有这些都需要模型了解用户的要求,然后逐步执行一系列任务来完成所需的设置。在每种情况下,甚至可能需要员工或客户回答后续问题,人工智能模型可能需要澄清,或者更新也可能需要最新信息,需要连接或者代理需要进一步处理的任务。
Bedrock Agents通过为开发人员提供了执行API调用、获取资源和处理系统集成所需的所有资源,以便他们可以完成应用工作,在幕后安全地管理所有这些应用。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。