8月30日,港股上市公司乐享集团发布2021年中期业绩报告。今年以来,乐享集团积极服务行业客户,大力开拓新业务市场,竞争优势持续强化。整体来看,乐享集团经营发展呈现出高速增长的态势。
2021年上半年,乐享集团实现营业收入6.24亿港元,同比增长62.37%;实现毛利润2.14亿港元,同比增长105.15%;实现扣非净利润1.37亿港元,同比增长102.26%。
各项指标高增长的背后,得益于乐享集团在效果营销行业优势不断显现。从行业来看,作为中国领先的从事移动新媒体智能化效果营销业务的科技公司,乐享集团的优秀业绩离不开数字经济,尤其是短视频兴趣电商的发展。
当前,国内短视频兴趣电商方兴未艾,已经成为增速最快的线上消费场景。与此同时,以TikTok为代表的海外兴趣电商平台正处于商业化变现的初级阶段,具有巨大的市场潜力和客户需求。在此背景下,乐享集团积极顺应行业发展趋势,也为其迎来巨大的发展机遇。
1、从商业模式上看,目前乐享集团主要采用交易流水分成,即CPS的收入模式。今年上半年,乐享集团按照交易流水分成取得的收入占总收入的92.71%。在此模式下,乐享集团无需提前取得行业客户的营销预算,而是通过其专业的服务和技术能力帮助行业客户解决直接触达消费者(DTC)的痛点和需求,获取新的客户和销售订单,再按照交易流水等效果类指标与行业客户进行结算。
2、从移动营销生态看,乐享集团通过持续性研发投入,深耕效果营销科技,进一步优化供给端平台服务与需求端平台服务,形成了强大的协同优势。
在供给端平台(SSP)服务上,乐享集团形成了数据化、标签化的媒体画像数据,也为移动新媒体发布者推荐符合其媒体画像的产品,并将其发布至营销点位。截止2021年6月30日,乐享集团覆盖的储备营销点位总数达到156.16万个,较2020年6月30日的50.59万个同比增长208.65%;活跃营销点位达到68.95万个,较2020年同期的30.47万个增长126.32%。
在需求端平台(DSP)服务上,乐享集团面向行业客户提供产品画像及智能选号服务,在2021上半年亦赢得越来越多行业客户青睐。截止2021年6月30日,乐享集团服务的行业客户覆盖数量达到308个,同比增长36.86%;产品库中收录的互娱及其他数字产品数量达到1538款,同比增长62.92%;电商产品数量达到231款,同比增长86.29%。
作为集团业务闭环的两个相互支撑的组成部分,乐享集团的供给端平台服务与需求端平台服务形成了有机整体,共同构成产品库、流量池、模型效果三方面正向促进、互相增长的循环,形成强大的协同优势。
3、从监管趋势和平台进化的角度,乐享集团独立第三方的身份属性有助于跨平台服务,响应“反垄断、平台间融合发展”的时代号召。在互联网平台公司加强业务融合、打破人为壁垒的趋势下,互联网平台将开放更多的业务机会给合作伙伴,以采用第三方服务的形式加强跨平台合作。由于不存在与某一家平台排他、代理性质的合作关系,乐享集团将有机会在平台间的业务融合中发挥跨平台服务的经验和能力,更能满足互联网平台公司生态化发展策略和业务需求。
随着移动新媒体效果营销市场需求持续旺盛,乐享集团正在不断强化其领先优势,驱动集团业绩实现高速增长。展望未来,乐享集团也将以技术创新为驱动力,持续为客户提供创新、优质的效果营销服务。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。