谷歌在 Android 平台上的 Circle to Search 功能允许用户通过绘画、高亮或点击屏幕上的对象来进行搜索。现在,iPhone 用户也可以通过 Google Lens 使用类似的功能。
虽然 Circle to Search 在 Android 上可以全系统使用,但 Google Lens 在 iPhone 上只能在 Chrome 和 Google 应用内使用,不过功能基本相同。
当你在 Chrome 或 Google 应用中看到感兴趣的对象时,比如一栋建筑或一双鞋,你可以快速使用手势来搜索屏幕上的内容,并通过网络搜索或 AI 概览获取更多信息。在此之前,iOS 用户只能通过截图并上传到 Google 来搜索屏幕内容,而这个新方法显然更快捷方便。
如何在 iOS 上的 Google 和 Chrome 中使用 Google Lens:
当你在 Google 应用中看到想了解更多的对象时,点击三点菜单,然后选择"使用 Google Lens 搜索屏幕"或"搜索此屏幕"。屏幕会出现闪烁效果,顶部显示 Google Lens。
你可以使用最习惯的手势:在对象周围画圈、点击对象或高亮文本。完成后,底部会出现一个网络搜索窗口,显示你刚才搜索内容的相关信息和视觉匹配结果。
如果你想添加更多上下文来优化搜索结果,可以在显示"添加到搜索"的搜索栏中输入。例如,如果你使用 Circle to Search 高亮一个披萨来寻找食谱,你可以添加"素食食谱"来细化搜索。
除此之外,谷歌即将让 iPhone 用户能够在 Google 搜索中使用相机图标拍照,并获得 AI 概览,以快速了解你所看到的任何物体,无论是汽车、建筑还是雕像。本周,AI 概览功能将在 Android 和 iOS 的 Google 应用中推出,并很快将登陆 Chrome 移动端和桌面端。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。