AWS正在向自己的托管人工智能服务Amazon Bedrock部署一系列新的基础模型。
AWS近日详细介绍了这些新的模型以及其他一系列增强功能。根据AWS的说法,Bedrock客户将能够在该服务上运行定制的神经网络,还可以使用新功能来比较AI模型的性能并确保这些模型是符合内容安全标准的。
AWS在去年4月推出了Bedrock,提供对AWS和其他六家公司托管基础模型的访问路径。这些模型可以通过应用编程接口获得,从而让客户无需管理底层基础设施。因此,将AI模型集成到企业应用中涉及的工作是比较少的。
在今天的更新中,AWS去年11月预览的图像生成模型将在Bedrock中全面可用。这个名为Amazon Titan Image Generator的模型不仅可以创建图像,还可以根据自然语言指令编辑现有图像,它可以把不可见的水印嵌入到它创建的文件中,以简化识别AI生成内容的任务。
下周,Bedrock用户将可以使用另一个名为Amazon Titan Text Embeddings V2的新模型,这是Bedrock现有用于创建嵌入模型的增强版本,而且这些都是数学结构,神经网络在其中存储用于生成响应的信息。
AWS还在扩展Bedrock的第三方模型目录。Meta开源大型语言模型系列的最新版本Llama 3现在已经在Bedrock上可用。未来,AWS还将添加来自资金雄厚的大型语言模型初创公司Cohere的Command R和Command R+模型。Cohere R+是这两个模型中更先进的一个,在本月早些时候推出,支持10种语言。
AWS人工智能和数据副总裁Swami Sivasubramanian表示:“通过今天的发布,我们将加倍致力于为客户提供最全面的功能和行业领先模型的选项,继续为客户快速创新,进一步大规模实现生成式AI创新的普及。”
对于Bedrock内置AI目录无法完全满足其需求的客户来说,他们可以把自己的自定义模型引入该服务。根据AWS的说法,这是通过一项名为Bedrock Custom Model Import的新功能实现的,该功能也是今天更新的一部分。该功能让用户只需点击几下即可在Bedrock中使用外部的AI模型。
发布之后,该功能将与Mistral AI和Meta的Llama系列开源模型定制版本配合使用,还支持谷歌的开源大型语言模型Flan-T5,后者是谷歌最初于2019年推出的语言模型系列的最新型号之一。
用户向Bedrock引入的自定义大型语言模型可以访问内置模型提供的许多功能,包括Guardrails for Amazon Bedrock功能,该功能于今天上午全面上线,旨在防止AI模型生成有害的内容。
客户可以通过输入应该拒绝哪些提示的自然语言描述来配置该功能。例如,企业可以阻止包含信用卡号等敏感数据的请求,此外还有护栏可以调节AI模型的输出,适用于防止客户支持大型语言模型生成投资建议等任务。
确定哪种模型最适合给定的应用项目,这有时候需要数小时的手动测试。为了加快任务速度,AWS在Bedrock中推出了一个名为“Model Evaluation”的工具,允许用户选择服务中可用模型的子集,并通过让他们回答一组测试提示来比较其准确性。
Model Evaluation工具还可以根据其他指标来比较神经网络。例如,企业可以检查AI生成的响应是否符合其内容风格指南。对于使用自动化方法可能难以评估AI响应的情况,Model Evaluation工具提供了让人类测试员评估模型输出质量的选项。
好文章,需要你的鼓励
四川大学研究团队发现,当前先进的AI模型在面对信息不完整的数学问题时,缺乏主动询问澄清信息的能力,更倾向于基于假设给出答案。
中南大学等机构联合发布TextAtlas5M数据集,包含500万图像-文本对,专门解决AI长文本图像生成难题。该数据集平均文本长度148.82词,远超现有数据集,涵盖广告、学术、教育等真实场景。配套的TextAtlasEval基准测试显示,即使最先进的商业模型也面临显著挑战,为AI图像生成技术指明了新的发展方向。
从11岁就梦想造人形机器人的Bernt Bornich,用'huggable'形容他的Neo Gamma机器人——这个能举起150磅的66磅'运动员',正以家庭为试验场突破AI学习瓶颈:'工厂20小时就触及学习天花板,而家庭环境的多样性才是通往AGI的钥匙'。
剑桥大学研究团队创建了史上最难的AI视觉测试ZeroBench,包含100道精心设计的视觉推理题目。在这项测试中,包括GPT-4o、Claude、Gemini在内的20个全球最先进AI模型全部得了0分,暴露了当前AI在基础视觉理解上的严重缺陷。研究发现AI主要在计数、空间推理等基础任务上失败,而非逻辑推理能力不足。