Meta 最近发布了一款面向创作者的新视频编辑应用,名为 Edits。该新应用旨在与 ByteDance 的 CapCut(一款流行的短视频编辑应用,为众多创作者所使用)一较高下。
Meta 最初于 1 月透露正在开发 Edits,当时由于 TikTok 禁令一度生效,ByteDance 所属的 CapCut 被从美国应用商店下架。尽管该应用现已恢复上线,并可以下载,但 TikTok 在美国的未来仍不明朗,因此 Meta 准备好借助新 Edits 应用,在未来 CapCut 可能缺席的情况下抢占市场。
我们制作了本指南,带你全面了解该应用及其各种功能,并对其与 CapCut 的区别进行概览。
【如何开始使用该应用】
Edits 可在 iOS 和 Android 平台下载。下载并打开应用后,你需要使用 Instagram 账户登录。
登录后,你将看到五个主要标签: Ideas、Inspiration、Projects、 Record 和 Insights。 Ideas 标签为创作者提供了记录新视频创意以及将 Reels 保存到合集中的空间,而 Inspiration 标签则是专为发现流行音频和其他热门 Reels 而设的中心。
Projects 标签用于存储和重温创作者当前正在制作的视频,同时也支持从手机相册上传视频。 Record 标签则允许创作者直接在 Edits 内录制视频内容。最后,Insights 标签通过展示观看次数、覆盖人数和粉丝数量等数据,为创作者提供内容表现的整体概览。
【Edits 提供的工具与功能】
绿幕功能:轻轻一点,即可更换并编辑视频背景。
时间轴:精确排列和调整视频片段。
字幕:为视频添加多语言自动生成的字幕。
音频库:从 Instagram 的音频库中为视频添加音乐。
分割抠像:通过精准跟踪隔离特定对象。
动画效果:利用 AI 将静态图像转换为视频。
一键应用:一键为所有片段应用滤镜、效果、转场及各种调整。
时间轴帧率选择器:将视频转换为所需帧率,以提升播放的流畅度。
对齐辅助线:确保发布视频时观众能看到关键部分,并能准确定位文本、表情符号或其他元素。
节拍标记:自动检测并添加节拍标记,帮助你在编辑时将视频片段、文本和叠加效果与音频完美对齐。
滤镜:从 30 种不同滤镜中选择,为视频增添独特风格。
转场效果:提供 30 种转场效果,实现视频片段之间的无缝衔接。
【Edits 与 CapCut 有何不同?】
尽管 Edits 与 CapCut 都是出色的短视频编辑工具,但两者之间仍存在若干差异。
首先,CapCut 提供的编辑选项(包括丰富的 AI 功能)比 Edits 更为强大。当然,这也符合预期,因为 Edits 相较于 CapCut 尚属较新产品。预计 Meta 在未来数月甚至数年内会持续对 Edits 进行功能拓展,从而推出更多高级功能。此外,需要注意的是,CapCut 拥有比 Edits 更为丰富的音乐库。
另一处区别在于,目前 Edits 尚未提供订阅服务(暂时如此),而 CapCut 已设有订阅制。虽然 CapCut 提供免费版,但其部分高级工具需要付费解锁。Edits 现阶段为免费使用,但这一状况可能会在未来发生变化,正如 Instagram 负责人 Adam Mosseri 所言,Edits 后续版本可能会加入付费功能。
此外,虽然 CapCut 可在网页端使用,但目前 Edits 仅限于移动端,尽管未来可能会对此做出改变。
好文章,需要你的鼓励
这项研究由德累斯顿工业大学等机构的研究团队完成,旨在解决主动学习未被广泛应用的问题。研究者构建了包含460万种超参数组合的实验网格,系统分析了各参数对主动学习性能的影响。研究发现,不同策略实现间存在显著差异,基于边缘的不确定性策略整体表现最佳,随机选择约4000个超参数组合即可获得可靠结果。这些发现为设计可重现、可信赖的主动学习实验提供了明确指导,有助于降低入门门槛,促进技术在实际应用中的普及。
这项由英国爱丁堡大学和上海人工智能实验室研究者共同完成的工作提出了LongBioBench,一种用于评估长文本语言模型的新型基准测试框架。通过使用人工生成的虚构人物传记作为测试环境,该框架在保持可控性的同时,提供了更真实的评估场景。研究对18个长文本模型的测试表明,即使最先进的模型在检索、推理和可信任性方面仍存在显著挑战,特别是上下文长度增加时。研究还揭示了现有合成基准测试的设计缺陷和长上下文预训练的局限性,为未来模型开发提供了重要指导。
SuperWriter是一项来自新加坡科技设计大学和清华大学的突破性研究,通过模仿人类"先思考后写作"的过程,彻底改良了AI长文生成能力。该研究团队开发的框架包含三个关键阶段:规划、写作和修改,使AI能像专业作家一样进行结构化思考。实验结果表明,经过训练的SuperWriter-LM模型不仅超越同等规模的所有AI模型,甚至在某些领域表现优于规模更大的顶级模型,为AI辅助写作开创了新的可能性。
香港大学与阿里巴巴达摩院合作开发的LayerFlow是一种突破性的层级视频生成技术,能同时生成透明前景、完整背景和混合场景视频。该技术通过创新的框架设计将不同视频层级作为子片段连接,并引入层级嵌入使模型区分各层级。面对高质量训练数据稀缺的挑战,研究团队设计了三阶段训练策略,结合Motion LoRA和Content LoRA,实现了图像和视频数据的联合训练。LayerFlow不仅支持多层视频生成,还能实现视频分解和条件层生成,为视频创作领域带来革命性变革。