Adobe作为后期制作领导者,长期致力于支持电影制作和影视娱乐行业。近二十年来,Adobe Premiere Pro已经发展成备受信赖的剪辑软件,包括长篇和影视剧内容在内的编辑与后期都可通过Premiere Pro完成。Adobe近日宣布发布《Premiere Pro 最佳实践和用户指南》,专为电影和电视剧制作人量身打造,并提供免费下载。此指南由 Adobe 工程师、业界资深人士和屡获殊荣的剪辑人员多年精心打造,以深入研究多年来塑造无数获奖节目、电影和项目的 Premiere Pro 的基本功能。
Adobe Premiere Pro中剪辑师和后期专业人士所喜爱使用的功能Productions 于 2020 年首次推出,它显著地提高了长篇和剧集剪辑团队的工作效率和协作流程。该功能的早期版本在 Netflix 的《曼克》、派拉蒙影业的《终结者:黑暗命运》、 Netflix的《心灵猎人》、 Netflix 的《我叫多麦特》和 A24 的《瞬息全宇宙》等好莱坞作品中都进行了测试,且大获好评。
除了Productions之外,Adobe 还整理了其他关键主题,包括硬件配置、原始素材编辑工作流程、多机位剪辑、与After Effects的动态连接、中转版本等。Adobe希望此指南可以成为对世界各地剪辑人员有帮助的资源。
《Premiere Pro最佳实践和用户指南》(以下简称《Premiere Pro指南》)免费提供全面的引导,深入阐述 Premiere Pro 的主要功能,包括:
硬件与配置
在指南硬件的配置章节中,用户可以了解到 Premiere Pro 如何利用现代计算机硬件的强大功能,找到能够实现创作需求的系统。影视制作人可以了解最适合配置的硬件,以及进阶工作流程中重要的配置偏好。
原始素材编辑工作流程
原始素材指的是那些已经拍摄完成,但却未经编辑、剪辑等后期制作的电影、电视影片等。在Premiere Pro指南中,用户可以从基础开始了解 Premiere Pro 如何将原始素材编辑整合到更广泛的后期制作流程中。对该工作流程的详细考虑与设计能确保用户的项目从正确的轨道上开始。
使用Productions制作作品
Premiere Pro中的Poductions 为团队的多项目工作流程提供了一个灵活、可扩展的框架,无论用户独自工作还是与团队合作,Production都能帮助他们保持项目的组织性和效率。无论项目规模大小,Productions 均可适用。
多机位编辑
Premiere Pro 具有深入而灵活的多机位编辑功能,《Premiere Pro指南》详细解读了如何判断哪种工作流程适合哪些情况,帮助用户顺利地开启多机位工作。
与After Effects 的动态连接
动态连接(Dynamic Link)功能强大,通过这一技术,用户可以直接在 Premiere Pro 的时间轴中查看 After Effects 的工作进度(如标题或视觉效果),而无需渲染。
中转版本
中转版本(Turnovers)是指输出项目数据和媒介存档的过程,让Premiere Pro中输出的档案可被其他的应用程序所读取,同时另一位创作者或剪辑人员也可以接续完成他们的工作。本章内容也包括了如何将转档输出后的版本提交给调色、音频混合和视觉效果团队的最佳实践与使用方法。用户还可了解如何准备时间轴以及哪些设定最适合其工作流程。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。