AWS近日宣布推出多款新的安全工具,并为云计算客户扩展了现有的服务。
正如AWS云工程师Becky Weiss(如图)在加利福尼亚州阿纳海姆举行的AWS年度re:Inforce大会上所讲的,此举目标是在云基础设施中进一步引入更多零信任功能,让客户更轻松地实现每秒筛选超过10亿次API调用,以查找潜在的不良行为者、恶意软件证据和漏洞。目前,AWS每年可消除多达700000次分布式拒绝服务攻击。
去年AWS在re:Inforce大会上预览了Security Lake,如今已经全面上市,它集中了来自AWS和非AWS环境的安全数据,包括云和本地工作负载,以便安全分析师可以调查和响应安全事件。例如,谷歌云也提供了一个类似的名为Chronicle的工具。AWS表示,该服务现在被50多家合作伙伴用于提供安全分析。
其中一个关键的零信任组件是Verified Access,今年早些时候宣布推出的,用于实时验证每个应用的请求,以消除对虚拟专用网络的需要。
今年早些时候,CrowdStrike Holdings宣布将Falcon威胁检测软件与该服务集成。Falcon作为验证过程的其中一个部分,可以评估端点状态,例如是否已经修补到当前级别并且不包含任何恶意软件。
AWS还推出了一项名为Verified Permissions的配套服务,使用名为Cedar的专用开源编程语言添加了细粒度的授权和权限管理。访问控制和策略是用Cedar编写的,然后Verified Permissions使用这些访问控制和策略授权或者是拒绝对应用的访问。
另一系列公告旨在帮助开发人员使用各种新的AWS工具编写更安全的代码。AWS的漏洞管理服务Inspector已经进行了功能上的扩展,可以扫描Lambda代码以查找代码注入或弱加密等问题。
Inspector现在还提供了导出软件物料清单的功能,可以在自动化工具中使用,以了解软件供应链的深度。Weiss演示了这是如何通过单击来完成的。AWS还发布了CodeGuru Security预览版,一种静态应用测试工具,利用机器学习来查找编码问题。
这不是AWS唯一的基于机器学习的服务。AWS公司首席信息官CJ Moses在他的演讲中提到,之前宣布的其他几项工作正在进行中,包括可用于构建基于机器学习的私有应用的 Bedrock,和类似微软Copilot可用于构建应用的AI编码辅助工具。
最后,AWS也对主动威胁检测服务GuardDuty进行扩展增加了新功能,可以扫描Aurora 数据库、EKS Runtime容器和基于Lambda的威胁。Weiss表示:“我们的客户需要身份预防控制,以便更轻松地定义数据边界,从而实现大规模运营。”
Amazon这次还公布了Global Partner Security全球合作伙伴安全计划,该计划将帮助系统集成商合作开发适用于多云环境的创新合规产品和托管服务。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。