至顶网软件与服务频道消息:IBM已经与麻省理工学院的研究人员合作开发了一种新方法,可以更有效地训练“视频识别”深度学习模型。
深度学习是机器学习的一个分支,旨在复制人脑解决问题的方式,已经在语言翻译、图像和语音识别等领域引发了重大颠覆。
视频识别类似于图像分类,深度学习模型会尝试识别视频中的一切,包括所看到的对象和人物,他们在做什么等等。两者之间的主要区别在于,视频相比简单的静态图像具有更多的运动部分,因此训练深度学习模型来理解视频内容要花费更多的时间和精力。
麻省理工学院在今天的一篇博客文章中解释说:“据估计,训练视频识别模型所需要的数据比训练图像分类模型最多可多出50倍,处理能力则是其8倍。”
当然,没有人喜欢为这种任务投入大量的计算资源,因为成本是极高的。此外,这种任务对资源的要求,使其几乎无法在低功率移动设备上运行视频识别模型。
这些问题促使麻省理工学院电气工程与计算机科学系助理教授Song Han领导的研究团队提出了一种更为有效的视频识别训练模型,这项新技术极大地减少了视频识别模型的大小,从而缩短了训练时间并提高了移动设备的性能。
“我们的目标是让使用低功耗设备的任何人都可以使用AI。要做到这一点,我们就需要设计出一种高效的AI模型,这种模型能耗低,且可以在边缘设备上平稳运行。”
图像分类模型通过在图像像素中查找图案来建立工作模式,以构建它们看到的内容呈现。在有足够示例的情况下,该模型可以学习识别人、物体及其之间的关联方式。
视频识别的方式类似,但是深度学习模型更进了一步,使用“三维卷积”在一系列图像(视频帧)编码时间,从而使得模型更大、计算更密集。为了减少计算量,Han和他的同事设计出了一种“时间偏移模块”,该模块将选定视频帧的特征映像移动到相邻的帧,通过混合过去、现在和未来的空间呈现,模型无需明确呈现即可实现时间流逝感。
这项新技术让基于Something-Something视频数据集(一系列密集标记的视频剪辑集合,呈现了人类对日常事务执行所预设的基本动作)的模型训练速度比现有模型快了3倍。
该模型甚至可以实时理解人们的动作,并且能耗很低,例如该模型让摄像头上安装的单板计算机立即对手势进行分类,能耗相当于自行车灯的电量。
Constellation Research首席分析师、副总裁Holger Mueller表示,机器学习仍处于发展早期阶段,采用这种创新方法所能获得的收益也是如此。“今天MIT和IBM合作加速视频识别技术的发展,而这正是目前难度最大的机器学习任务之一。”
IBM和MIT表示,这种新的视频识别模型可以在运用于各个领域,例如可以加快在YouTube或类似服务上分类视频的速度,还可以使医院在本地而不是在云中运行AI应用,从而使机密数据更安全。
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。