Snapchat 于星期四宣布,全球推出专为 Apple Watch 设计的 watchOS 应用程序,使 Apple Watch 用户能够在手腕上访问这一社交网络。借助这一新应用程序,用户现可在移动设备、网页、平板电脑以及 Apple Watch 上使用 Snapchat。
用户现在不仅可以预览收到的信息,还可以通过键盘、 Scribble、 Dictation 或表情符号进行回复。公司表示,这款新应用程序将让用户实现诸如在餐厅会面时迅速告知朋友自己“已到”或者在跑步时低头查看并快速回复信息等操作。
虽然此前已可以通过在 iPhone 上启用相关功能,在 Apple Watch 上预览 Snapchat 信息,但用户此前一直无法进行回复,直到现在这一限制才被打破。
Snap 在博客文章中写道: “ 我们日常使用的设备数量不断增加, ”并补充道:“ 我们已经看到社区在包括平板电脑和网页在内的平台上愉快地使用 Snapchat,此外还有移动设备,这进一步体现了我们致力于在您所使用的所有设备(包括可穿戴设备)上提供 Snapchat 服务的承诺。”
星期四的这一公告标志着 Snapchat 思维方式的转变。Snap CEO Evan Spiegel 几年前曾表示,他对 Apple Watch 那小小的屏幕并不看好,认为人们可能更愿意在手机上查看图片,而不是在手表上。
如今,Snapchat 更加注重利用其 watchOS 应用程序来快速回复信息,而非用于查看图片或视频。
通过此次推出专用 watchOS 应用,Snapchat 已超越 Facebook Messenger 和 WhatsApp 等竞争对手,从而进一步巩固了其在消息应用领域的领先地位。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。