谷歌在 Android 平台上的 Circle to Search 功能允许用户通过绘画、高亮或点击屏幕上的对象来进行搜索。现在,iPhone 用户也可以通过 Google Lens 使用类似的功能。
虽然 Circle to Search 在 Android 上可以全系统使用,但 Google Lens 在 iPhone 上只能在 Chrome 和 Google 应用内使用,不过功能基本相同。
当你在 Chrome 或 Google 应用中看到感兴趣的对象时,比如一栋建筑或一双鞋,你可以快速使用手势来搜索屏幕上的内容,并通过网络搜索或 AI 概览获取更多信息。在此之前,iOS 用户只能通过截图并上传到 Google 来搜索屏幕内容,而这个新方法显然更快捷方便。
如何在 iOS 上的 Google 和 Chrome 中使用 Google Lens:
当你在 Google 应用中看到想了解更多的对象时,点击三点菜单,然后选择"使用 Google Lens 搜索屏幕"或"搜索此屏幕"。屏幕会出现闪烁效果,顶部显示 Google Lens。
你可以使用最习惯的手势:在对象周围画圈、点击对象或高亮文本。完成后,底部会出现一个网络搜索窗口,显示你刚才搜索内容的相关信息和视觉匹配结果。
如果你想添加更多上下文来优化搜索结果,可以在显示"添加到搜索"的搜索栏中输入。例如,如果你使用 Circle to Search 高亮一个披萨来寻找食谱,你可以添加"素食食谱"来细化搜索。
除此之外,谷歌即将让 iPhone 用户能够在 Google 搜索中使用相机图标拍照,并获得 AI 概览,以快速了解你所看到的任何物体,无论是汽车、建筑还是雕像。本周,AI 概览功能将在 Android 和 iOS 的 Google 应用中推出,并很快将登陆 Chrome 移动端和桌面端。
好文章,需要你的鼓励
诺基亚最新全球网络流量报告预测,到2034年WAN流量将增长300%至700%,主要驱动力包括人工智能、工业运营扩展和消费者沉浸式应用。报告称AI流量年复合增长率将达23%,到2034年占全球WAN流量30%。然而专家对此预测提出质疑,认为报告缺乏具体应用场景支撑。分析师指出,企业目前并未因WAN带宽限制而无法实现目标,工业设备更新周期长达15年以上,大规模流量增长不太可能快速实现。
GigaAI团队开发的GigaBrain-0.5M*系统首次让机器人获得了"预见未来"的能力,通过世界模型预测未来场景并指导行动决策。该系统采用RAMP强化学习方法,在多项复杂操作任务中表现优异,成功率比传统方法提升约30%,并在国际RoboChallenge基准测试中排名第一,代表了从反应式控制向前瞻式智能的重大突破。
今天的出海故事,从一笔690.78万加元的少数股权投资开始:金牌家居的全资子公司与关联方通过新加坡主体共同参投 RIFO Holding Group Inc.,简称RIFO,先把钱放到加拿大“住房交易、金融服务与安居服务”这条链条更靠前的位置。
这项由人大和腾讯联合开展的研究提出了ExOPD方法,通过调节奖励信号让AI学生模型突破老师性能限制。研究在数学推理和代码生成任务上验证了该方法的有效性,发现合适的奖励外推能让小模型超越大模型表现。该技术为AI训练领域带来新思路,但仍需考虑计算成本等实际限制。