ZDNet至顶网软件频道消息 (文/张晓楠):近日,人机界面解决方案开发商Synaptics公司宣布以485亿日元(4.75亿美元)收购Renesas SP Drivers公司100%股份。Renesas SP Drivers的技术优势在于智能手机、平板电脑等中小尺寸显示驱动器IC (DDIC)市场,而Synaptics的优势在人机界面解决方案,比如:智能手机、平板电脑、笔记本电脑等智能终端设备的触摸屏解决方案,身份验证、移动支付、触控导航解决方案,轻薄键盘解决方案等。
此次收购让两家公司实现优势互补。对此Synaptics智能显示屏事业部高级副总裁及总经理Kevin Barber表示:本次收购完成之后, Synaptics将成为年收入15亿美金的公司,2家公司的客户资源整合,潜在市场机遇提升1.5倍。
Synaptics智能显示屏事业部高级副总裁及总经理Kevin Barber
对于两家公司的OEM客户来说,本次收购的好处在于:一方面实现产品的差异化,让两家公司技术实力优势互补;另外,将利于公司更快的推出产品,以简化OEM供应链。
Synaptics一直非常专注于其优势行业和优势领域,100%的精力专注于人机界面、触屏领域的技术研发和产品的制造。据了解,公司每年将收入的20%用于研发投入。
在TDDI(集成型触控显示驱动芯片)领域, Synaptics已经研发很多年。Kevin Barber认为目前TDDI技术难点在于触摸技术和显示驱动技术的结合,以及如何将触摸感应技术集成到显示屏当中,此次收购,将加速TDDI产品路线图。
针对市场机会巨大的物联网市场,Kevin Barber也表示,如果未来技术和市场成熟的话,我们也会考虑提供包括可穿戴设备、更多智能终端设备在内的人机交互解决方案。在未来,触摸可能并不是人机界面的唯一形式,用户体验可能会上升到通过眼睛、大脑在内的多种形式的交互。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。