至顶网软件频道消息: 3月21日,阿里云正式发布视频边缘智能服务产品Link Visual 2.0,在原有视频接入能力的基础上,创新性地融入了深度学习AI能力,提供云边端一体的视频接入和算法容器。支持算法模型从云端下发,在边缘和设备端做推理。这样,哪怕一个很普通的摄像头,也能够很轻松的拥有AI能力。
阿里云方面表示,该产品即将于今年4月启动邀测,7月正式上线。据介绍,Link Visual自去年10月发布1.0版本后,引发了强烈的市场反响,目前已有近百家摄像头厂家购买产品并开始服务对接工作,多家智能视频服务商也跟进推出了同类产品。可以说,Link Visual不仅为泛视频行业的数字化和智能化转型提供了更便捷的云服务,同时也为拓宽视频应用提供了更广阔的想象空间。
而此次发布的2.0版本,将首次开放深度学习云边协同能力,形成了视频数据接入、调度,算法模型下发、算法容器、边缘推理、结果上云的闭环,打通从数据、模型、到应用的全链路,对无论是算法厂家、AI创业团队还是解决方案商来说,都提供了更为高效的解决方案。
举例来说,常规的智能视频服务商,能为视频提供的智能识别目标有限,而客户如果需要添加新的目标,则需要一个漫长的过程才能实现应用落地。通过Link Visual服务,再加上AI能力,就能缩减这个过程,完成新目标的识别。
另外,对于已经有成熟算法的厂家来说,可以适配Link Visual 2.0提供的算法容器,按照统一的数据标准,接入规范和给定的硬件平台,将算法托管到云端,入驻算法市场。在实际项目需要相应的算法时,客户可以直接从云端购买算法,并支持把算法分发到边缘和设备端。除此之外,Link Visual 2.0基于阿里云基础产品架构,运用多重安全策略,也确保了用户的数据安全。
“人工智能的市场需求正在迅速变化,以应对企业在物联网布局时所面临的协同、高效和互联等方面的关键挑战。”英特尔物联网副总裁江百伦说道,“全新的视频边缘智能服务,结合了经英特尔 OpenVINO工具包优化的深度学习推理能力,能构建高性能应用程序,并加快从边缘到云的计算机视觉算法开发。这将帮助客户,在智慧制造和智慧城市等领域中,更迅捷地部署人工智能和物联网解决方案。
阿里巴巴集团副总裁、阿里云智能IoT事业部总经理库伟表示,物联网迈向智联网的重要路径是实施云边端一体协同计算,让数据、计算能力和AI能力通过云边端协同的方式流动起来,才能实现万物智能。今天发布的视频边缘智能服务就是以此理念而打造,使得阿里集团和合作伙伴及第三方开发者的算法能力,可以在云边端协同工作,让物联更有价值,进而向智联跨越。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。