谷歌在 Android 平台上的 Circle to Search 功能允许用户通过绘画、高亮或点击屏幕上的对象来进行搜索。现在,iPhone 用户也可以通过 Google Lens 使用类似的功能。
虽然 Circle to Search 在 Android 上可以全系统使用,但 Google Lens 在 iPhone 上只能在 Chrome 和 Google 应用内使用,不过功能基本相同。
当你在 Chrome 或 Google 应用中看到感兴趣的对象时,比如一栋建筑或一双鞋,你可以快速使用手势来搜索屏幕上的内容,并通过网络搜索或 AI 概览获取更多信息。在此之前,iOS 用户只能通过截图并上传到 Google 来搜索屏幕内容,而这个新方法显然更快捷方便。
如何在 iOS 上的 Google 和 Chrome 中使用 Google Lens:
当你在 Google 应用中看到想了解更多的对象时,点击三点菜单,然后选择"使用 Google Lens 搜索屏幕"或"搜索此屏幕"。屏幕会出现闪烁效果,顶部显示 Google Lens。
你可以使用最习惯的手势:在对象周围画圈、点击对象或高亮文本。完成后,底部会出现一个网络搜索窗口,显示你刚才搜索内容的相关信息和视觉匹配结果。
如果你想添加更多上下文来优化搜索结果,可以在显示"添加到搜索"的搜索栏中输入。例如,如果你使用 Circle to Search 高亮一个披萨来寻找食谱,你可以添加"素食食谱"来细化搜索。
除此之外,谷歌即将让 iPhone 用户能够在 Google 搜索中使用相机图标拍照,并获得 AI 概览,以快速了解你所看到的任何物体,无论是汽车、建筑还是雕像。本周,AI 概览功能将在 Android 和 iOS 的 Google 应用中推出,并很快将登陆 Chrome 移动端和桌面端。
好文章,需要你的鼓励
OpenAI研究科学家Alexander Wei宣布,公司一个未发布的实验模型在国际数学奥林匹克竞赛中解决了六道题目中的五道,获得42分中的35分,达到金牌水平。该模型展现出类似人类数学家的推理能力,能够构建复杂严密的论证。这标志着AI在创造性问题解决方面的重要突破,不过该技术预计数月内不会公开发布。
加利福尼亚大学和萨里大学研究团队开发了一种创新的AI系统,能够仅通过简单的手绘素描就在复杂照片中精确识别关键点。这项技术突破了传统机器学习需要大量同类数据的限制,实现了真正的跨模态学习。系统在动物关键点识别任务中达到了39%的准确率,超越现有方法约5个百分点,并且在真实手绘素描测试中表现稳定。该技术有望在生物学研究、医疗诊断、工业检测等多个领域找到广泛应用。
本文探讨了判断AI是否达到通用人工智能(AGI)和人工超级智能(ASI)水平所需的问题数量。目前缺乏确定的测试方法来评估是否达到顶级AI水平。基于图灵测试的分析,作者提出仅通过少量问题难以全面评估智能水平。参考美国国会图书馆主题标引(LCSH)的40万个主题领域,如果每个领域提出1万个问题,将需要40亿个问题来全面测试AGI。这种大规模测试虽然在逻辑上合理,但在实际操作中面临巨大挑战。
约翰霍普金斯大学发布DOTRESIZE技术,通过最优传输理论实现AI大模型智能压缩。该方法将相似神经元合并而非删除,在保持性能的同时显著降低计算成本。实验显示,压缩20%后模型仍保持98%性能,为AI技术普及和可持续发展提供新路径。