AWS正在向自己的托管人工智能服务Amazon Bedrock部署一系列新的基础模型。
AWS近日详细介绍了这些新的模型以及其他一系列增强功能。根据AWS的说法,Bedrock客户将能够在该服务上运行定制的神经网络,还可以使用新功能来比较AI模型的性能并确保这些模型是符合内容安全标准的。
AWS在去年4月推出了Bedrock,提供对AWS和其他六家公司托管基础模型的访问路径。这些模型可以通过应用编程接口获得,从而让客户无需管理底层基础设施。因此,将AI模型集成到企业应用中涉及的工作是比较少的。
在今天的更新中,AWS去年11月预览的图像生成模型将在Bedrock中全面可用。这个名为Amazon Titan Image Generator的模型不仅可以创建图像,还可以根据自然语言指令编辑现有图像,它可以把不可见的水印嵌入到它创建的文件中,以简化识别AI生成内容的任务。
下周,Bedrock用户将可以使用另一个名为Amazon Titan Text Embeddings V2的新模型,这是Bedrock现有用于创建嵌入模型的增强版本,而且这些都是数学结构,神经网络在其中存储用于生成响应的信息。
AWS还在扩展Bedrock的第三方模型目录。Meta开源大型语言模型系列的最新版本Llama 3现在已经在Bedrock上可用。未来,AWS还将添加来自资金雄厚的大型语言模型初创公司Cohere的Command R和Command R+模型。Cohere R+是这两个模型中更先进的一个,在本月早些时候推出,支持10种语言。
AWS人工智能和数据副总裁Swami Sivasubramanian表示:“通过今天的发布,我们将加倍致力于为客户提供最全面的功能和行业领先模型的选项,继续为客户快速创新,进一步大规模实现生成式AI创新的普及。”
对于Bedrock内置AI目录无法完全满足其需求的客户来说,他们可以把自己的自定义模型引入该服务。根据AWS的说法,这是通过一项名为Bedrock Custom Model Import的新功能实现的,该功能也是今天更新的一部分。该功能让用户只需点击几下即可在Bedrock中使用外部的AI模型。
发布之后,该功能将与Mistral AI和Meta的Llama系列开源模型定制版本配合使用,还支持谷歌的开源大型语言模型Flan-T5,后者是谷歌最初于2019年推出的语言模型系列的最新型号之一。
用户向Bedrock引入的自定义大型语言模型可以访问内置模型提供的许多功能,包括Guardrails for Amazon Bedrock功能,该功能于今天上午全面上线,旨在防止AI模型生成有害的内容。
客户可以通过输入应该拒绝哪些提示的自然语言描述来配置该功能。例如,企业可以阻止包含信用卡号等敏感数据的请求,此外还有护栏可以调节AI模型的输出,适用于防止客户支持大型语言模型生成投资建议等任务。
确定哪种模型最适合给定的应用项目,这有时候需要数小时的手动测试。为了加快任务速度,AWS在Bedrock中推出了一个名为“Model Evaluation”的工具,允许用户选择服务中可用模型的子集,并通过让他们回答一组测试提示来比较其准确性。
Model Evaluation工具还可以根据其他指标来比较神经网络。例如,企业可以检查AI生成的响应是否符合其内容风格指南。对于使用自动化方法可能难以评估AI响应的情况,Model Evaluation工具提供了让人类测试员评估模型输出质量的选项。
好文章,需要你的鼓励
后来广为人知的“云上奥运”这一说法,正是从这一刻起走上历史舞台。云计算这一概念,也随之被越来越多的人所熟知。乘云科技CEO郝凯对此深有感受,因为在2017年春节过后不久,他的公司开始成为阿里云的合作伙伴,加入了滚滚而来的云计算大潮中。同一年,郝凯带领团队也第一次参加了阿里云的“双11”活动,实现了800万元的销售业绩。
随着各行各业数字化变革的不断深入,人类社会正加速迈向智能化。作为智能世界和数字经济的坚实底座,数据中心也迎来了蓬勃发展。面