WordPress.com 母公司 Automattic 的发展方向再次发生改变。
在题为 "Returning to Core" 的博客文章中,Automattic 于周四晚上宣布,将重新投入对 WordPress 项目的贡献。尽管就在上个月曾表示,WordPress 6.8 版本将是 2025 年所有重大版本的最后一次发行。
博客文章称:"在暂停贡献以进行调整、重新思考并进行战略规划后,我们已准备好重新启动,全面回归 WordPress 项目。请期待在 WordPress Core、Gutenberg、Playground、Openverse 以及 WordPress.org 等多个核心领域看到我们的贡献。这次回归令我们感到兴奋,因为这关乎我们一直以来坚信的使命:为全球所有人民主化发布。"
Automattic 表示,从这段暂停期中,他们学到了很多有关 WordPress 多种使用方式的知识,并且现在更加致力于帮助 WordPress "成长和繁荣"。
文章还指出,今天的 WordPress 支持了 43% 的互联网网站。
目前尚不清楚从之前到今年四月之间到底发生了哪些变化。
然而,据 TechCrunch 消息人士透露,Automattic 的首席执行官 Matt Mullenweg 在昨晚发布的一篇内部文章中解释,他希望今年推出 6.9 版本,其中将包括一个管理后台的更新以及来自 "new AI team" 的新功能。 ( The latter references this week’s announcement that WordPress formed a new team to steward the development of AI projects. )
一位熟悉内部讨论的人士称,内部文章中写道:"我认为没有我们的贡献,这一切都不会发生。"
业内人士猜测,此举背后的原因可能不止于此,各种理论纷纷出现。有些人猜测 Mullenweg 是否受到了压力才做出这一决定,或者他是否意识到撤退将不利于他的业务及其声誉?也有人讨论此次态度转变是否与 Automattic 与 WordPress 托管公司 WP Engine 之间的持续诉讼有关,Automattic 曾称 WP Engine 为 WordPress 社区的 "威胁" 以及 WordPress 的 "祸害"。
目前无人能确定究竟该相信哪一种说法,这些幕后猜测与官方说明的理由均不吻合。
Automattic 对此未给出进一步评论。
自 2024 年起,Automattic 就与 WP Engine 展开了一场法律纠纷,原因在于 Mullenweg 认为,尽管 WP Engine 在规模和收入上具有优势,但其对 WordPress 项目的贡献却非常有限。
他认为,这家托管公司从 WordPress 开源工作中牟利却没有做出相应回馈。Mullenweg 还指控 WP Engine 利用了 WordPress 与商业服务(如 WP Engine)之间的混淆局面,因此他禁止该公司访问 WordPress.org,并在法院起诉其未经授权使用商标。
简而言之,Mullenweg 认为 WP Engine 要么应该支付直接的许可费用,或者应增加其对开源 WordPress 项目的贡献,否则就不应被允许使用其商标。
WP Engine 回应称,他们认为自己并不需要许可,并指 Automattic 误解了商标法,反过来起诉了 Automattic。
上个月,Automattic 裁减了 16% 的员工,并表示此次重组是为了使公司更加灵活,同时提升生产力和盈利能力。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。