ZDNet至顶网软件频道消息:一场世界杯的饕餮盛宴让媒体跟云计算“亲密接触”:央视联手阿里云,发布可以直播世界杯的APP“CCTV5”;阿里云为新华社“我在现场”APP护航;腾讯借助IBM的大数据和SoftLayer云计算,分析社交媒体舆情;微软Azure公有云也助力了央视的世界杯直播。而早在世界杯之前,光明网、CNTV在云计算之路上走得更远。
借助云计算,媒体人们想要实现的目标是什么?这或许是一场热闹的博眼球、拼收视的媒体大战之外,我们要思考的问题。
提及媒体,不知道公众立刻反应出来的是什么。是新华社?是中央电视台?是人民日报?有些人或许会说这些媒体太过时了,互联网时代,视频网站、微信博客、自媒体...只要你想发声,只要你有平台,只要你的内容够吸引人,你就可以打造一个成功的媒体平台。
当明星记者、明星写手们的影响力和传播力开始抵不过一个大V、一个互联网草根抑或一个自媒体人时,云计算,包括大数据,开始成为媒体手中的一个武器,它让传统媒体、甚至是新媒体,在互联网大潮下不要落伍。
媒体借助云计算实现的第一个目标,应该是解决播出世界杯赛期间,短时流量暴增带来的负载问题。世界杯期间的比赛有几十场,每场比赛的收视率不一样、热度也不同;世界杯期间与其他平常时段,网络负载也是大相径庭。这时候云计算的灵活、可扩展性就体现出了优势。为了应对世界杯期间可能涌入的上千万球迷,新华社提前对“我在现场”APP的服务器进行压测,分析相应数据,提前计算系统扩容量。而CNTV在马年春节,借助微软Azure公有云应对春晚的全球网络直播,成本节约达到90%。
另外,借助云计算手段,往常网络直播总是比电视直播慢半拍的囧事也解决了。央视在这次世界杯期间就与阿里云进行了合作,其直播世界杯的APP“CCTV5”,借助了阿里云的CDN(内容分发网络)技术,实现完全与电视的同步直播。这一举措彻底让网络直播与电视直播有了相同的收看体验,也彻底把观众赶出了客厅,而移动终端的大势是不可逆转的,顺者昌、逆者亡。
而世界杯期间被热炒的大数据,其实背后也要依托云计算技术。以腾讯体育频道与IBM进行的社交媒体数据分析合作为例,腾讯体育利用IBM的社交媒体数据分析工具,抓取球迷在社交网络上发布的海量信息,并利用文本分析、语义分析技术以及结合性格测试模型,针对海量数据进行精准分析,获得球迷最关注的话题。在合作中,IBM提供的大数据分析技术,依托的是其不久前在香港开业的SoftLayer数据中心所提供的IT基础架构。
而当大量的视频、图片素材需要被前线记者第一时间上传并发送回总部的时候,云计算也可以体现出威力。为了支持新华社“我在现场”APP,阿里云提前在巴西、香港和美国设置服务器资源,申请中美专线、中港专线使用权限,保障现场记者将视频、图文信息第一时间传送回国,提升安全性和实效性。而就记者所知,某些国内的民营电视台,开始搭建内容云平台,让世界各地的公众在事件现场把视频、图文信息上传到内容云平台,获取独家新闻,并提高获取效率。
当媒体的优势——内容,在互联网时代开始失去竞争力的时候,有人认为“内容为王”时代已经终结。其实在任何时代,内容都不会过时,只是在当今时代,媒体需要把内容赋予新的含义。比如:内容如何像商品一样去包装;如何通过渠道去进行推广和销售;如何尊崇内容的生产流程和生命周期。为了实现这些目的,或许云计算是一个好手段。
好文章,需要你的鼓励
这项研究由德累斯顿工业大学等机构的研究团队完成,旨在解决主动学习未被广泛应用的问题。研究者构建了包含460万种超参数组合的实验网格,系统分析了各参数对主动学习性能的影响。研究发现,不同策略实现间存在显著差异,基于边缘的不确定性策略整体表现最佳,随机选择约4000个超参数组合即可获得可靠结果。这些发现为设计可重现、可信赖的主动学习实验提供了明确指导,有助于降低入门门槛,促进技术在实际应用中的普及。
这项由英国爱丁堡大学和上海人工智能实验室研究者共同完成的工作提出了LongBioBench,一种用于评估长文本语言模型的新型基准测试框架。通过使用人工生成的虚构人物传记作为测试环境,该框架在保持可控性的同时,提供了更真实的评估场景。研究对18个长文本模型的测试表明,即使最先进的模型在检索、推理和可信任性方面仍存在显著挑战,特别是上下文长度增加时。研究还揭示了现有合成基准测试的设计缺陷和长上下文预训练的局限性,为未来模型开发提供了重要指导。
SuperWriter是一项来自新加坡科技设计大学和清华大学的突破性研究,通过模仿人类"先思考后写作"的过程,彻底改良了AI长文生成能力。该研究团队开发的框架包含三个关键阶段:规划、写作和修改,使AI能像专业作家一样进行结构化思考。实验结果表明,经过训练的SuperWriter-LM模型不仅超越同等规模的所有AI模型,甚至在某些领域表现优于规模更大的顶级模型,为AI辅助写作开创了新的可能性。
香港大学与阿里巴巴达摩院合作开发的LayerFlow是一种突破性的层级视频生成技术,能同时生成透明前景、完整背景和混合场景视频。该技术通过创新的框架设计将不同视频层级作为子片段连接,并引入层级嵌入使模型区分各层级。面对高质量训练数据稀缺的挑战,研究团队设计了三阶段训练策略,结合Motion LoRA和Content LoRA,实现了图像和视频数据的联合训练。LayerFlow不仅支持多层视频生成,还能实现视频分解和条件层生成,为视频创作领域带来革命性变革。