
自上世纪九十年代以来,如何与娱乐行业就经历了数波影响深远的颠覆性浪潮。首先是互联网的出现,这在21世纪的第一个十年实现了内容的数字化分发,并在第二个十年再次颠覆分发形式,实现了从下载到流媒体直播/点播等新形式。而得益于AI技术的迅猛发展,第三波浪潮正在新的十年中再度兴起。
电影和电视工作室的传统商业模式,正在受到流媒体及社交媒体平台上海量原创及分发内容的威胁。过去几年来,行业各主要工作室的收入下降达两位数。而围绕流媒体的新商业模式虽在兴起,但也大多尚未展现出可观的利润,甚至仍处于亏损状态。面对过渡时期的难题,AI技术将如何为新的、更具持久生命力的媒体与娱乐经济形态做出贡献?
在上周于洛杉矶举行的2024年好莱坞创新与转型峰会暨娱乐发展研讨会上,我们明确迎来了这个问题的答案。这场为期一天的活动由好莱坞IT协会与佩珀代因大学格拉齐亚迪奥商学院合作举办,旨在通过学者与行业专家的共同努力解决复杂的业务问题。
多位发言者预测,AI技术将让新的业务与内容制作流程变得效率更高、更加简洁。例如,Box’sBox联合创始人Aaron Levie就谈到得益于AI技术的支持,电影资产能够被准确编入索引,帮助拍摄与后期制作部门以更短的时间快速搜索数字文件,腾出精力专注于完善最终产品。此外,从合同到发票的处置流程也将实现重大收益。
在另一方面,生产力的提升也将在创意方面有所体现。由视觉特效公司ICVR领导的视觉特效会议,展示了生成式AI如何帮助线制片人完成从剧本到预可视化阶段中70%的工作,成功将原本需要一周的工作量成功压缩到几个小时以内。部分AI辅助方案还有助于提升产品质量。例如在一款名为Flawless AI TrueSync工具的演示当中,其使用AI技术实现了多语种配音及对话内容修改,并可无缝转换嘴部动作及面部表情。
流程效率的提高将使创意人员减少对行政及其他程序性任务的关注,将更多时间和精力投入到创作当中。来自沃顿商学院的John C. Hower教授,以及AI驱动剧本与知识产权管理自动化工具Jumpcut创始人Kartik Hosanager也都提到了各自的颠覆性应用方向,认为技术当初已经将我们从手工业时代推向信息工业时代,而如今的AI将创造出一个人类得以专注于创造力、同理心与领导力的全新阶段。
此外,AI技术还有助于改善决策与生产质量。在The Ankler公司Elaine Low与Sean McNulty参加的研讨会上,他们就分享了支持决策制定的AI内容策略分析,以及如何使用流数据根据收视率分析(而非传统直觉)做出更好、更具包容性的选角决策。
会上也出现了很多关于AI如何改善创作工作流程,以及AI技术实质性提升客户体验的案例。
但也有人就三种风险发出警告:首先,由于存在输入偏差或者完整性缺失,AI输出同样可能包含偏差及偏见。其次,如果不能完全透明地解释哪些内容由AI生成,或者训练数据的来源不完全透明,那么错误信息很可能快速传播。第三,在使用生成式AI创作或协助创作文本、音频和视频时,往往会带来层出不穷的知识产权问题。关于最后一点,OpenAI公司就曾因在ChatGPT 4的语音版本中使用与斯嘉丽·约翰逊非常相似的声色而引发广泛争议,此事也在会上被多次提及。
总体而言,本次会议上人们对AI创新普遍持支持态度,认为风险并不会抵消这项新兴技术带来的巨大机会空间。与会者们都相信AI技术将在未来几十年内推动新媒体与娱乐经济的又一波发展,现有AI应用演示也欣然实现了效率提升、内容增强与决策优化等实际成效。凡此种种,表明围绕AI开展的创新必将对商业乃至创意工作流程产生深远的变革性影响。
幸运的是,从宏观层面看这场重大转型才刚刚起步。而抗拒AI技术者将被时代所淘汰,已经成为整个媒体与娱乐行业的广泛共识。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。