ZD至顶网软件频道消息: 3亿用户同时在线、每秒14万笔交易、8.6万笔支付、一天200 PB数据,“双11”的交易数值总是能令人咋舌。
“中国没有任何一家企业能够像阿里巴巴一样,一天的数据处理量达到200PB。但是今天,特别是随着移动互联网的发展,企业拥有的数据越来越多,接下来的五年里,都将可能遇到这样的挑战。”阿里云总裁胡晓明认为,今后企业在发展转型过程中遇到的挑战主要有三点:其计算资源永远不够用;业务越来越多,但每一次开发都是从零开始;拥有越来越多的企业数据,却不知其意义。
“这些挑战不奇怪,阿里巴巴也遇到过。真正的原因在于,在传统的IT架构下,开发是烟囱式的,资源、应用以及数据都是孤岛。试想,如果天猫、淘宝、聚划算、咸鱼、支付宝、余额宝等都各自为政,那么,今天的我们是没有办法让研发的质量和数据更敏捷,同样也没有办法让消费者的体验变得更好。”
阿里云总裁胡晓明
6月15日,云栖大会厦门峰会开幕,阿里云集中展示了它为企业解决上述挑战难题的三件法宝:全面的云计算、企业级互联网中间件、大数据平台数加。胡晓明表示,“未来三年内,中国40%以上的企业都将采用云计算开展业务。这三件法宝将为企业资源融合、架构共享、数据互通的价值。”
如何实现资源融合?答案是阿里云飞天系统。
目前,阿里云提供的云计算包括了公共云、专有云(Apsara Stack)以及通过多种方式构建的混合云。其中,专有云(Apsara Stack)基于经过大规模市场服务验证的阿里云公共云平台,针对企业市场进行了二次优化,可以让企业内硬件资源在系统层完成统一调度,实现资源大融合,同时满足了企业对于安全合规和可靠性要求。
“如果企业需要专有云,就可以使用飞天系统去部署,并且快速实现计算资源最快最好的集约化。”胡晓明表示,“我们正在通过互联网的方法来提供我们的弹性计算、数据库、负载均衡、储存等各类的服务。同样的,我们还可以通过一个独立部署的操作系统管理所有资源,调度所有通用任务,并最终形成软件定义数据中心、分布式应用、大数据三位一体。”
但是,胡晓明说:“只是将系统云化还远远不够。”在云计算环境重构业务架构来应对互联网带来的不确定性挑战才是关键。
事实上,在互联网时代,传统IT架构固有的孤岛模式无法因应新时代需求。数年前,阿里巴巴亦遇到类似挑战,在历经了用云架构应对“双11”这样全球巅峰挑战、用企业级互联网架构应对业务的巨量创新需求之后。阿里巴巴积累了大量的理论与实践创新:将核心能力原子化,抽象封装,以应对来自需求、用户规模、创新、数据等等的不确定性。
胡晓明介绍道:“现在,在全球范围内,阿里云整体支撑全球大概100多万家网站,中国将近35%的网站是放在阿里云的。双11是非常好的应用场景,让我们不断的去压力测试自身技术能否满足客户的需求。今天阿里云不仅仅是整合了交易和支付,更整合了物联网、大数据的能力,以及图片识别等各种能力,把整个供应链、交易、支付、客户管理和物流这一套体系下的IT架构进行整体输出,交给越来越多大型企业。”
现在这一经过严苛实战考验的阿里云互联网中间件也对外开放服务,帮助企业做到资源融合、架构共享、数据互通。
据介绍,中石化采用这套架构搭建了国内首个工业品电商网站“易派客”,从立项到上线仅用时3个月。能够处理2000~3000亿次调用服务,2万亿条业务调用链,管理4000次线性扩容和缩容。
目前,全国已经有30多家大中型政府机构、企业集团采用阿里云互联网中间件,真正实现了“互联网+”战略的实施落地。
此外,数据是企业、国家弯道超车的机会,数加平台帮助企业去挖掘自己的数据。浙江省与阿里云合作,借助MaxCompute的强大计算能力,实现了对省内1300公里高速路段未来1小时车速的精准预测。这背后的运算量惊人,但系统可以在秒级内完成。
胡晓明表示:“今天阿里云可以把云计算、大数据、中间件捆绑在一起,让企业客户拥有一个很强壮的基础设施。而通过数加平台,企业可以快速复制阿里巴巴沉淀十年的数据能力,让数据从原来的成本中心转变成企业的价值中心。”
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。