在12月28日钉钉7.0产品发布会上,钉钉会议推出最大更新版本,软件、硬件、算法、体验全面升级,字幕、一键合影、会议近场转移等五项新功能上线;在硬件生态上,Jabra、TCL、Insta360、MAXHUB等超过70家头部伙伴加入钉钉会议生态,认证品牌达到40家,认证硬件已超过200款。此外,钉钉会议与Intel完成战略签约,将共同打造新一代更智能的会议大屏系统。
今年,钉钉音视频进行了超过500个体验迭代,形成了会议、直播、Rooms、连接器、音视频硬件生态认证的能力矩阵。数据显示,过去一年中,用户在钉钉上发起了3.68亿场音视频会议。

软件升级:推出字幕、一键合影等功能
面向企业用户,此次发布的钉钉会议新版本对产品界面、操作路径等交互体验做了升级,重点优化用户在会中的开会体验,通过长按空格发言、多任务小窗等,营造更沉浸专注的会议氛围。
为了更好地提升参会人之间的互动,钉钉会议新版本推出一系列功能插件,比如:
● 升级字幕功能,支持会议语音实时转文字和中英互译能力。可实时回看前面的发言记录,不用担心走神了没跟上,在不方便开声音时也可以了解会议内容,同时还可以解决跨国会议的难题;
● 推出会中互动能力,开会过程中可以发送文字、表情、气氛动效等互动元素。比如,当用户想发言又不好意思打断其他发言人时,可以发送举手的表情,不用担心出现抢麦;
● 推出一键合影功能,解决了过去线上会议合影,需要逐屏截图再拼图的繁琐操作,一键将多屏参会人的画面合成为一张合影照片;
● 推出会中名片功能,在会中可以快速分清参会人的角色,解决企业和上下游公司开会时,公司多、角色多、人数多,很难分清对方身份等痛点。
钉钉会议新版本还全面升级了底层音视频技术,推出基于深度学习的音视频引擎,进一步优化拥塞控制算法,将弱网延时降低,语音通话质量提升,为用户提供更加稳定、流畅、高清的音视频会议体验。
性能升级:适配Mac、iPad等多端特性,手机耗电量最高降低40%
钉钉会议结合Mac、iPad、Android终端的特性进行了一些适配,为用户打造最佳使用体验。如在Mac电脑右上角的状态栏上,可以对钉钉会议做一些快捷的操作,如静音、共享、录制等;在iPad上可以实现手动拖拽将成员加入到会议中,将会议拖到群聊生成会议卡片实现快速邀请,甚至还可以将文档拖拽到会议中发起闪享,多种分屏体验让工作效率翻倍;钉钉会议也和OPPO、Vivo、三星等厂商的折叠屏手机做了适配,在悬停状态下实现一屏多用,为用户带来高效便捷的开会体验。
同时,钉钉客户端团队针对多款硬件编解码芯片进行适配,并做了大量的视频渲染大幅降低视频会议对手机CPU的占用率,在部分机型上降低40%的耗电量,缓解手机发热现象。视频会议是一个高消耗资源的场景,只有保证资源的最大化利用,才能更好地提升会议体验。
生态升级:算法技术全面开放,超70头部伙伴加入钉钉会议朋友圈
今年3月,钉钉会议推出包括外设认证、Sip 认证、Rooms 认证、钉闪会认证、模组认证的五大合作体系,并发布一款作为音视频技术开放容器的视频会议一体机F2,它首次将麦克风声学特性和差分波束理论的优势进行结合,使得钉钉F2会议硬件的远场拾音准确率更高,可实现在线下会议室场景的10米高清拾音。
通过对F2音频、视频算法的开放,这些技术已被应用在生态硬件产品中,目前TCL、MAXHUB、Intel、影石Insta360、Jabra等已联合钉钉推出多款生态硬件,超过70家合作伙伴已加入到钉钉会议生态队伍中,共同打造“软硬一体”云视频会议解决方案。

Rooms能力输出上,钉钉F1、F2还新增了会议近场转移功能,该功能也将通过钉钉会议Rooms软件系统,适配更多生态产品如会议平板,进一步提升会议室开会的便捷性。当参会人拿着手机、电脑进入会议室,可以自动识别设备,支持将手机和电脑上的会议一键转移到F1、F2上,无需重新进入会议,实现无缝切换。
签约Intel:将基于酷睿™处理器共同研发,提升Rooms智能化能力
除此之外,钉钉还联合英特尔共同打造更智能的会议大屏系统,该系统有机整合双方的技术优势,以第12代英特尔®酷睿™处理器为核心深度优化,提升会议大屏的性能,为用户创造会议室场景高清、流畅、智能的开会体验。同时,这款系统也将提升钉钉会议Rooms软件的智能化能力,已面向钉钉会议硬件认证合作伙伴开放,降低其在音视频能力上的研发门槛。
“企业的数字化协同已经从企业内走向企业间,在产业互联的大趋势下,钉钉会议希望通过持续的产品创新与技术打磨,携手更多行业生态伙伴,探索云会议对组织效率的新价值,连接更多人、组织和场景,帮助企业加速全链路的数字化升级。”钉钉副总裁、音视频事业部负责人赵加雨最后总结道。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。