AWS正在向自己的托管人工智能服务Amazon Bedrock部署一系列新的基础模型。
AWS近日详细介绍了这些新的模型以及其他一系列增强功能。根据AWS的说法,Bedrock客户将能够在该服务上运行定制的神经网络,还可以使用新功能来比较AI模型的性能并确保这些模型是符合内容安全标准的。

AWS在去年4月推出了Bedrock,提供对AWS和其他六家公司托管基础模型的访问路径。这些模型可以通过应用编程接口获得,从而让客户无需管理底层基础设施。因此,将AI模型集成到企业应用中涉及的工作是比较少的。
在今天的更新中,AWS去年11月预览的图像生成模型将在Bedrock中全面可用。这个名为Amazon Titan Image Generator的模型不仅可以创建图像,还可以根据自然语言指令编辑现有图像,它可以把不可见的水印嵌入到它创建的文件中,以简化识别AI生成内容的任务。
下周,Bedrock用户将可以使用另一个名为Amazon Titan Text Embeddings V2的新模型,这是Bedrock现有用于创建嵌入模型的增强版本,而且这些都是数学结构,神经网络在其中存储用于生成响应的信息。
AWS还在扩展Bedrock的第三方模型目录。Meta开源大型语言模型系列的最新版本Llama 3现在已经在Bedrock上可用。未来,AWS还将添加来自资金雄厚的大型语言模型初创公司Cohere的Command R和Command R+模型。Cohere R+是这两个模型中更先进的一个,在本月早些时候推出,支持10种语言。
AWS人工智能和数据副总裁Swami Sivasubramanian表示:“通过今天的发布,我们将加倍致力于为客户提供最全面的功能和行业领先模型的选项,继续为客户快速创新,进一步大规模实现生成式AI创新的普及。”
对于Bedrock内置AI目录无法完全满足其需求的客户来说,他们可以把自己的自定义模型引入该服务。根据AWS的说法,这是通过一项名为Bedrock Custom Model Import的新功能实现的,该功能也是今天更新的一部分。该功能让用户只需点击几下即可在Bedrock中使用外部的AI模型。
发布之后,该功能将与Mistral AI和Meta的Llama系列开源模型定制版本配合使用,还支持谷歌的开源大型语言模型Flan-T5,后者是谷歌最初于2019年推出的语言模型系列的最新型号之一。
用户向Bedrock引入的自定义大型语言模型可以访问内置模型提供的许多功能,包括Guardrails for Amazon Bedrock功能,该功能于今天上午全面上线,旨在防止AI模型生成有害的内容。
客户可以通过输入应该拒绝哪些提示的自然语言描述来配置该功能。例如,企业可以阻止包含信用卡号等敏感数据的请求,此外还有护栏可以调节AI模型的输出,适用于防止客户支持大型语言模型生成投资建议等任务。
确定哪种模型最适合给定的应用项目,这有时候需要数小时的手动测试。为了加快任务速度,AWS在Bedrock中推出了一个名为“Model Evaluation”的工具,允许用户选择服务中可用模型的子集,并通过让他们回答一组测试提示来比较其准确性。
Model Evaluation工具还可以根据其他指标来比较神经网络。例如,企业可以检查AI生成的响应是否符合其内容风格指南。对于使用自动化方法可能难以评估AI响应的情况,Model Evaluation工具提供了让人类测试员评估模型输出质量的选项。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。