AWS正在向自己的托管人工智能服务Amazon Bedrock部署一系列新的基础模型。
AWS近日详细介绍了这些新的模型以及其他一系列增强功能。根据AWS的说法,Bedrock客户将能够在该服务上运行定制的神经网络,还可以使用新功能来比较AI模型的性能并确保这些模型是符合内容安全标准的。

AWS在去年4月推出了Bedrock,提供对AWS和其他六家公司托管基础模型的访问路径。这些模型可以通过应用编程接口获得,从而让客户无需管理底层基础设施。因此,将AI模型集成到企业应用中涉及的工作是比较少的。
在今天的更新中,AWS去年11月预览的图像生成模型将在Bedrock中全面可用。这个名为Amazon Titan Image Generator的模型不仅可以创建图像,还可以根据自然语言指令编辑现有图像,它可以把不可见的水印嵌入到它创建的文件中,以简化识别AI生成内容的任务。
下周,Bedrock用户将可以使用另一个名为Amazon Titan Text Embeddings V2的新模型,这是Bedrock现有用于创建嵌入模型的增强版本,而且这些都是数学结构,神经网络在其中存储用于生成响应的信息。
AWS还在扩展Bedrock的第三方模型目录。Meta开源大型语言模型系列的最新版本Llama 3现在已经在Bedrock上可用。未来,AWS还将添加来自资金雄厚的大型语言模型初创公司Cohere的Command R和Command R+模型。Cohere R+是这两个模型中更先进的一个,在本月早些时候推出,支持10种语言。
AWS人工智能和数据副总裁Swami Sivasubramanian表示:“通过今天的发布,我们将加倍致力于为客户提供最全面的功能和行业领先模型的选项,继续为客户快速创新,进一步大规模实现生成式AI创新的普及。”
对于Bedrock内置AI目录无法完全满足其需求的客户来说,他们可以把自己的自定义模型引入该服务。根据AWS的说法,这是通过一项名为Bedrock Custom Model Import的新功能实现的,该功能也是今天更新的一部分。该功能让用户只需点击几下即可在Bedrock中使用外部的AI模型。
发布之后,该功能将与Mistral AI和Meta的Llama系列开源模型定制版本配合使用,还支持谷歌的开源大型语言模型Flan-T5,后者是谷歌最初于2019年推出的语言模型系列的最新型号之一。
用户向Bedrock引入的自定义大型语言模型可以访问内置模型提供的许多功能,包括Guardrails for Amazon Bedrock功能,该功能于今天上午全面上线,旨在防止AI模型生成有害的内容。
客户可以通过输入应该拒绝哪些提示的自然语言描述来配置该功能。例如,企业可以阻止包含信用卡号等敏感数据的请求,此外还有护栏可以调节AI模型的输出,适用于防止客户支持大型语言模型生成投资建议等任务。
确定哪种模型最适合给定的应用项目,这有时候需要数小时的手动测试。为了加快任务速度,AWS在Bedrock中推出了一个名为“Model Evaluation”的工具,允许用户选择服务中可用模型的子集,并通过让他们回答一组测试提示来比较其准确性。
Model Evaluation工具还可以根据其他指标来比较神经网络。例如,企业可以检查AI生成的响应是否符合其内容风格指南。对于使用自动化方法可能难以评估AI响应的情况,Model Evaluation工具提供了让人类测试员评估模型输出质量的选项。
 0赞
0赞好文章,需要你的鼓励
 推荐文章
                    推荐文章
                  英伟达和诺基亚宣布战略合作,将英伟达AI驱动的无线接入网产品集成到诺基亚RAN产品组合中,助力运营商在英伟达平台上部署AI原生5G Advanced和6G网络。双方将推出AI-RAN系统,提升网络性能和效率,为生成式AI和智能体AI应用提供无缝体验。英伟达将投资10亿美元并推出6G就绪的ARC-Pro计算平台,试验预计2026年开始。
这项由哥伦比亚大学研究团队完成的突破性研究首次揭示了AI系统自我改进中的"效用-学习张力"问题:系统追求更好性能时会增加复杂度,但过高复杂度会破坏学习能力。研究建立了学习边界定理,提出双门控制机制,为AI安全自我改进提供了理论基础和实用方案,对确保AI技术长期安全发展具有重要意义。
虽然ChatGPT等AI工具正在快速改变世界,但它们并非无所不知的神谕。ChatGPT擅长"令人信服的错误",经常提供有偏见、过时或完全错误的答案。在健康诊断、心理健康、紧急安全决策、个人财务规划、机密数据处理、违法行为、学术作弊、实时信息监控、赌博预测、法律文件起草和艺术创作等11个关键领域,用户应避免完全依赖ChatGPT,而应寻求专业人士帮助。
这项由Reactive AI公司Adam Filipek主导的研究提出了反应式变换器(RxT),通过事件驱动架构和固定大小记忆系统,将传统聊天机器人的对话成本从平方级降为线性级,使长期对话成本降低99%以上,同时实现恒定响应速度。实验证明即使12M参数的RxT也显著优于22M传统模型,为高效对话AI开辟新路径。
 
             
                 
                     
                     
                    