ZDNet至顶网软件频道消息:openSUSE项目宣布将于2014年10月18日和19日在北京召开首届openSUSE亚洲峰会。此次峰会,不仅是openSUSE项目的技术大会,更是亚洲各国开源技术爱好者、软件开发者的一次交流盛会。据悉,峰会期间还将针对云计算、大数据等热点话题开展一系列的开源项目实践及技术分享活动。
openSUSE是基于GNU/Linux的自由操作系统,由openSUSE项目社区开发维护。openSUSE创建了世界上最好的Linux发行版之一,并作为世界自由和开源软件社区的一部分,以一种开放、透明和友好的方式参与合作。
近年来,随着云计算、大数据技术的发展,Linux应用得到了极大的普及,这也使得openSUSE项目在亚洲的知名度和活跃度得到了大幅提高,特别是中国开发者已逐渐成为openSUSE项目的中流砥柱。openSUSE亚洲峰会旨在为推进openSUSE项目社区在亚洲的发展,推广自由开源软件的理念,并促进Linux在各地的使用,而此次亚洲峰会在中国的召开,更加突显了openSUSE社区对中国开发者的重视。
openSUSE董事会主席Richard Brown表示:“openSUSE的杰出努力与积极合作为Linux做出了巨大贡献,我们希望通过举办这次峰会,一方面肯定openSUSE所取得的进步与成功;另一方面激励openSUSE项目抓住机遇,使更多的技术爱好者了解自由软件、开源软件,并深受影响而参与到开源项目中,为丰富和发展全球的开源项目作出自己的贡献。”
此外,openSUSE亚洲峰会还将摆脱传统会议的束缚,积极邀请来自各国的技术开发者共同参与,真正做到为广大开源爱好者举办一场学习与交流的狂欢盛宴。
目前,会议注册已全面开放,请访问http://summit.opensuse.org/#register。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。