谷歌在 Android 平台上的 Circle to Search 功能允许用户通过绘画、高亮或点击屏幕上的对象来进行搜索。现在,iPhone 用户也可以通过 Google Lens 使用类似的功能。
虽然 Circle to Search 在 Android 上可以全系统使用,但 Google Lens 在 iPhone 上只能在 Chrome 和 Google 应用内使用,不过功能基本相同。
当你在 Chrome 或 Google 应用中看到感兴趣的对象时,比如一栋建筑或一双鞋,你可以快速使用手势来搜索屏幕上的内容,并通过网络搜索或 AI 概览获取更多信息。在此之前,iOS 用户只能通过截图并上传到 Google 来搜索屏幕内容,而这个新方法显然更快捷方便。
如何在 iOS 上的 Google 和 Chrome 中使用 Google Lens:
当你在 Google 应用中看到想了解更多的对象时,点击三点菜单,然后选择"使用 Google Lens 搜索屏幕"或"搜索此屏幕"。屏幕会出现闪烁效果,顶部显示 Google Lens。
你可以使用最习惯的手势:在对象周围画圈、点击对象或高亮文本。完成后,底部会出现一个网络搜索窗口,显示你刚才搜索内容的相关信息和视觉匹配结果。
如果你想添加更多上下文来优化搜索结果,可以在显示"添加到搜索"的搜索栏中输入。例如,如果你使用 Circle to Search 高亮一个披萨来寻找食谱,你可以添加"素食食谱"来细化搜索。
除此之外,谷歌即将让 iPhone 用户能够在 Google 搜索中使用相机图标拍照,并获得 AI 概览,以快速了解你所看到的任何物体,无论是汽车、建筑还是雕像。本周,AI 概览功能将在 Android 和 iOS 的 Google 应用中推出,并很快将登陆 Chrome 移动端和桌面端。
好文章,需要你的鼓励
传言显示,苹果合作伙伴三星显示器已提前开始为新款MacBook Pro批量生产OLED屏幕。原计划2026年第二季度开始生产,现已提前启动。新机型将采用与iPad Pro相同的串联OLED技术,配备M6芯片,设计更轻薄,首次搭载触摸屏功能,并将刘海改为打孔设计。苹果预计本月先发布M5版本,全新M6版本将于今年晚些时候或2027年初推出。
俄罗斯SALUTEDEV公司开发的VIBE图像编辑系统仅用36亿参数就实现了与大型模型相当的编辑效果。该系统采用2B参数的Qwen3-VL模型和1.6B参数的扩散模型组合,通过四阶段训练和1500万样本学习,在24GB显存下4秒内可生成2K图片,特别擅长保持原图一致性的精细编辑任务,为轻量化AI编辑技术树立新标杆。
Snap公司联合多所知名大学开发的RigMo系统,首次实现了3D模型骨架设计和动画制作的统一自动化。该技术通过观察网格变形自主学习最佳控制结构,引入创新的高斯骨骼概念替代传统刚性骨架,完全无需人工标注即可为任意3D模型生成流畅动画。实验显示RigMo在重建精度和跨类别泛化方面显著超越现有方法,有望革命性地降低3D动画制作门槛,为游戏开发、影视制作和虚拟现实等领域带来重大突破。