对于不熟悉的用户来说,Snapchat Lenses 本质上是应用程序中的 AR 滤镜,用户可以使用这些实时 AR 效果拍摄照片和视频。借助人工智能技术,这些 Lenses 滤镜现在将呈现出更加逼真的效果。Snapchat 表示,新推出的 AI 视频 Lenses 是由其"内部开发的生成式视频模型"驱动的。
目前用户可以使用三种 AI 视频 Lenses 滤镜。其中两个分别是浣熊和狐狸,这些"毛茸茸的朋友"会与使用者产生互动。另一个名为春季花卉的新 AI 滤镜则会产生一个缩放效果,让人看起来像是在手持一束鲜花。
Snapchat Platinum 订阅用户可以在滤镜轮播界面中找到这些新的 Lenses,与其他 AR 滤镜一起使用。由于 AI 生成视频需要一定时间,用户可以在视频处理期间继续浏览应用程序。该公司表示,未来将会添加更多 AI 视频 Lenses。
不知是否巧合,Instagram 在去年 12 月宣布他们也在开发逼真的基于 AI 的滤镜,这些滤镜将取代现有的 AR 滤镜。不过,Instagram 目前尚未向用户发布这些 AI 滤镜。
Snapchat 可在 App Store 免费下载,需要 iOS 14 或更高版本的 iPhone 或 iPad 设备。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。