5月19日,第五届世界人工智能大会在天津盛大开幕之际,恩智浦半导体于天津建立的人工智能应用创新中心也同期启动。
恩智浦人工智能应用创新中心启动仪式
在人工智能应用创新中心启动活动后,通过对恩智浦大中华区主席李廷伟博士的采访可以了解,恩智浦在天津发展已超过30年,有近600人的研发团队和一个领先的封装测试工厂,并与天津的高校、地方政府有紧密的合作。恩智浦的这些投入已然成为中国和欧洲进行智能化技术链接的一条重要纽带。
恩智浦大中华区主席李廷伟博士
而恩智浦在天津建立的人工智能应用创新中心,可以帮助智能产业培养更多专业人才,并且在其周围聚集更多智能企业,促进全套产业链的诞生。同时,恩智浦人工智能应用创新中心还提供可以连接全球资源的云平台,赋能人工智能物联网应用生态圈的协同创新。
作为一个芯片企业,恩智浦一直希望成为“边缘处理之王”。现在边缘端的应用非常广泛,它可以极大减少时延,响应速度非常迅速。比如一辆智能汽车,需要几百个边缘节点,如果一个节点的芯片没匹配的话,对于汽车安全就会形成挑战。
这就让记者产生了一个疑问,未来伴随着人工智能技术的发展,会是人控制机器,还是机器控制人?
以前机器即使再强大,由于没有判断能力,因此也就不存在谁控制谁的问题。而人工智能技术的出现,让机器有了可以比人更强的分析与判断能力,于是在未来的人工智能时代,到底依旧是人控制机器,还是改由机器来控制人呢?
对于这个问题,恩智浦曾于去年发布名为《算法道德》的白皮书,并在其中详细介绍了人工智能原则的全面框架,即:不作恶、人类自主、可解释性、持续关注与警惕、以及通过设计确保隐私性与数据安全性。这些原则根植于恩智浦的企业价值观与道德准则中,并且在恩智浦构建全球复杂安全设备的悠久传统中得到了践行。李廷伟博士进一步表示,在互联网发展的进程中,恩智浦一直在参与行业标准的制定,也一直与政府组织沟通交流,因为人工智能牵涉到“定义”层面的问题。恩智浦希望这些新技术更好地发展,定义和标准甚至有时候会滞后一点,但恩智浦相信这些技术最终是为人类服务的。
安全在这一过程中尤为重要,恩智浦认为,建立对人工智能的信任始于保护设备安全。以采用边缘处理(Edge Processing)技术的汽车为例,汽车中的节点,过去只是一个节点或者功能点,但现在每个节点都是一个智能节点。智能节点就牵涉到算法和数据,那么数据的安全就非常重要。恩智浦在安全上具有强大优势,比如现在恩智浦和一些车厂合作,协助他们实现电气化、自动化的汽车制造。当汽车销往海外时,每个节点都包含很多信息,牵涉到隐私问题等等,恩智浦正好在功能安全上有很强的能力,可以协助车厂满足海外的安全合规要求。
现在除了汽车之外,还有很多东西都在数据化的过程之中,比如护照中的芯片、全球的智能物流、智能零售等等,而数据化也涉及到可扩展性和安全性等不同的维度,但是恩智浦的目标是综合起来这些不同的维度,最终使其能够最大限度为人类进行服务。
最后,李廷伟博士表示:“作为一家全球领先的半导体厂商,恩智浦的产品已经被广泛应用到了智慧生活的各个领域,可以说‘无处不在’。通过人工智能应用创新中心,我们期待与客户、合作伙伴更加密切的互动,通过恩智浦的领先技术加速更多应用的开发落地,并赋能本土客户、特别是中小企业发展,实现共赢。”
采用恩智浦技术的OpenMV、摩托车仪表盘、指静脉检测、智能手表解决方案
天津大学学生利用恩智浦芯片开发多种应用
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。