谷歌正在向全球更多开发者推出其 Gemini 2.0 Flash AI 模型的最新"实验性"功能,人们发现它具有一些令人担忧的能力,包括从照片中删除水印。
该公司的轻量级本地设备 AI 模型现在配备了原生图像生成功能,不仅可以根据文字提示生成图片,还可以让用户以对话方式编辑图片。据 TechCrunch 报道,在周末期间,用户们发现它还能精确地移除水印。
像 Watermark Remover.io 这样的工具已经可以清除来自 Shutterstock 等公司的水印,而谷歌的一个研究团队在 2017 年就开发了一个水印移除算法,以强调需要更安全的保护措施。相反,一些 AI 工具(如 OpenAI 的 GPT-4)会拒绝移除水印的请求。
然而,Gemini 2.0 Flash 似乎在移除复杂水印(如 Getty Images 标记)并填充图像方面表现得比其他选择更好。在移除水印后,它会添加一个 SynthID 标记,实际上是用"AI 编辑"标记替换了版权标记。但正如我们之前在三星的对象擦除工具中看到的那样,使用 AI 也可以移除 AI 标记。
用户还注意到,Gemini 2.0 Flash 显然可以将真实人物(如 Elon Musk)的可识别图像添加到照片中,这是完整版 Gemini 模型所不允许的。
目前,Flash 的最新图像功能仅通过 AI Studio 向开发者开放——因此其明显缺乏保护机制的特性并未对所有人开放使用(或滥用)。我们已经询问谷歌是否有相关保护措施来阻止水印移除等行为,但尚未收到回复。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。