ZD至顶网软件频道消息:不论是传统IT架构管理者还是云架构管理者,都对容器的技术优势赞不绝口,但真正困扰着用户的难题在于,到底哪种容器方案最为出色。为了解决这一标准争议,由Docker公司和Linux基金会共同发起的开放容器计划(Open Container Initiative,OCI)力求打造一套通用型容器标准,其中的最新成果正是OCI Image Format Spec项目。
容器标准化正在实现当中
作为OCI的首个项目,OCI Runtime Spec规范了容器的运行规则,而新项目OCI Image Format Spec则提供一整套开放容器镜像规范,其中包含运行特定软件所需要的全部构建组件,这也意味着容器技术“一次打包,随处运行”的承诺迈出了关键性一步。
那么其重要意义又在哪里?CoreOS公司CEO Alex Polvi的回答是:“类似于火狐与Chrome,容器领域也存在着Docker与rkt(两款高人气容器方案)。经过此次改革,二者相当于拥有了共享的HTML5,这意味着开发者的成果能够在任意浏览器当中拥有同样的运行效果。”
OCI技术监督委员会主席兼CoreOS公司CTO Brandon Philips补充称:“我们很高兴能够在OCI Image Format Spec项目当中与强大的技术社区进行合作,共同促成容器镜像的生成、验证、签署、命名与分发。”在一篇博文中,COreOS开发团队负责人Jonathan Boulle指出:“在不久的将来,Docker与rkt将支持一套共享式标准容器镜像格式,而其遵循的开放规范则来自OCI。”
据悉,这套新规范基于Docker 2.2版本,同时还将引入CoreOS公司的appc规范。正如Boulle所解释:开发者们将能够打包并签署应用程序容器,而后将其运行在一系列容器引擎当中。
而对用户而言,“拥有这样一套容器镜像规范,任何人都可以参与并加以实现,保证容器无需修改即可运行在各类Runtime当中——包括rkt、Docker、Kubernetes以及Amazon ECS等。”
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。