ZDNet至顶网软件频道消息:在更名为中国网络电视台后,作为中央电视台的新媒体传播机构,CNTV的业务范围在原有央视网之外,涉及新媒体业务的方方面面,而如何应对新媒体时代的挑战,也是摆在CNTV面前的重要课题。CNTV技术中心副总监白剑告诉记者,这一切可以概括为“一云多屏。
所谓“多屏“,包括PC、智能手机、平板电脑、互联网电视、公交车载电视等终端设备,CNTV扩展了五大业务:互联网、IPTV、互联网电视、手机电视和户外。目前CNTV是全国IPTV总播控平台,全国所有IPTV用户都在CNTV进行接入;CNTV的互联网电视业务占全国80%以上市场,大家熟悉的小米盒子、乐视盒子的后端内容和支撑都是由CNTV在做;虽然没有被拿来与爱奇艺、搜狐、土豆等视频网站进行比较,但是CNTV以每天带宽流量过TB/s的规模,其实已经排在国内视频网站的第五位。
对于CNTV来说,这些“多屏“背后的支撑就是”一云“,也就是云计算。但是对于CNTV来说,采用云计算不是赶时髦,而是大势所趋。
据白剑介绍,去年一年,CNTV整体业务量翻了一番。一方面要应对业务量的巨量增长,一方面还要在增长中保持业务创新,因此对于技术系统或者IT系统来说,所承载的压力也会更多,需要不断地去灵活应对。在这种情况之下选择云计算这一模式,就是顺理成章了。
在马年除夕,CNTV面临着流量的增加,而从立项、采购硬件到实施,以往需要3个月的时间。这一次却只用了2天,白剑的团队就完成了全部的技术准备工作,虽然设置了应急预案,但是春晚播出过程中却非常顺利,预案没有用上。带来这一变化的原因,是CNTV采用云计算技术对春晚直播提供技术支持。
除了时间和流程的节约之外,在成本节约上,白剑认为这笔账就更加划算了。“春晚直播是一个短时的流量增加,访问量上会有5倍以上的增长。如果按照传统的IT支持的做法,其实是不太划算的。但是如果采用云计算灵活的可扩展能力,特别是可以按需付费,成本节约甚至可达90%。”
之所以选择云计算模式,CNTV的考虑在于云计算的可扩展性,公有云、私有云和混合云服务可以根据CNTV业务需求和业务变化进行自动迁移。CNTV设立了一条baseline(基线),基线以下的业务放在私有云上;基线以上的业务放在公有云上。
对于基线的设定,白剑如此解释:“基线就是必备的一些服务能力,比如我们每天有4000万的UV,我们的基线是1500万UV,超过1500万UV以上的用户,我们可能就会放到公有云上去做服务;或者换一个角度来说,我们可能会在早上7点钟的时候使用私有云去做服务,到上午11点的时候,开始有用户访问高峰,我们会把一部分用户切到公有云上去,到晚上11点之后,我们就把所有公有云的服务全部都停掉,用私有云去服务。”
值得强调的是,这一切换工作都由系统自动完成,这也是云模式一项比较好的功能。
据了解,现在央视新闻客户端、央视悦动客户端以及CNTV总体播控平台三部分首先采用了云计算模式,央视新闻客户端和央视悦动客户端的下载量都超过了千万级,播控平台全网的用户数也达到了日均4000万。对于CNTV来说,未来会把底层全部云化,在央视新闻客户端、央视悦动客户端以及CNTV总体播控平台三部分之外,业务会逐步迁移,首先把移动终端和互联网终端向云端迁移。
早在2008年,英特尔就与中央电视台建立了联合实验室,加强提高多媒体处理以及高清视频编辑能力方面的探索,并在网络传输、并行计算和数据中心方面进行深入合作,双方的探索成果对于CNTV的新媒体转型也有裨益,比如支持CNTV底层云化以及更多业务向云端的迁移。
采访最后,谈及体会,白剑表示,云计算整个体系结构和以往是完全不一样的,它是一个颠覆性的形态,从系统的设计开始,一直到前端的运维、测试、优化...所有环节都需要IT从业者有一种颠覆性的思维。白剑这一体会对于众多正在考虑加入云计算滚滚大潮中的媒体用户来说,异常宝贵。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。