至顶网软件频道消息:继大数据热之后,以深度学习为代表的人工智能成为当下最为热门的技术,越来越多的企业已经或者正在准备进军深度学习,特别是那些已经在大数据领域投入了重金,建立起了庞大的大数据集群的公司,由于有了大数据的这个基础,在深度学习之路上更为积极和主动。
不过,对于其中一些初涉人工智能技术的公司,要想从深度学习技术受益并不容易。此时,非常希望有一款简单好用的深度学习框架,基于此可以快速开发自己的深度学习应用,从而尽快从人工智能这项技术中受益。好在用户的这一希望并非空想,今天市场上已经有这类技术解决方案,英特尔去年开源的大数据深度学习框架BigDL就是其中之一,而且是其中的佼佼者。据悉,BigDL如今已经被用户广泛认可,在不少企业级应用中发挥重要作用。
英特尔是芯片行业的龙头老大,这一点人所共知。而不少人不了解的是,英特尔还是大量软件研发人员开发出不少优秀的软件产品,其中除了一些为优化芯片性能的函数库之外(比如计算函数库 Math Kernel Library),也包括一些应用软件,比如大数据。BigDL是英特尔在大数据领域开发的众多软件中的一个。
BigDL是一个基于Apache Spark的开源分布式深度学习框架,于2016年12月对外正式发布。“我们的目的是让深度学习和大数据平台能够无缝、非常容易地结合在一起,使得深度学习更易于被大数据的社区和数据科学的社区使用。”英特尔高级首席工程师、大数据技术全球CTO戴金权谈及研发这个软件的原因时表示。
戴金权告诉至顶网记者,这款产品主要面向使用Hadoop进行大数据的存储和分析处理的用户。它们在Hadoop上有过较大投入,拥有大量数据集存储在存储在Hadoop集群中。如果想利用数据进行深度学习的训练,通常需要把这些数据导出,然后进行处理。这个过程耗时而且投资不小,BigDL的目的就是让这些用户可以直接在Hadoop平台上进行深度学习的训练。
“在真正的生产环境当中,很多时候数据量是非常庞大的,要做非常多的数据清洗、数据处理工作。这些生产数据通常存储在大数据集群里,或者是分布式文件系统HDFS或者是分布式表存储Hbase,集群规模可能达几千台、几万台。如果再设立一个单独的集群专门做深度学习,首先要做的事情就相当于要把这些数据从几千台、几万台大数据集群拷贝到新的集群上,然后再进行分析。而且这还不是一个一次性的工作,因为数据在不停的变化中,需要对数据进行不同的处理和分析,这个数据拷贝的过程成为了非常大的瓶颈。
戴金权解释说,英特尔要做的就是让用户使用BigDL,这样就可以直接在现有的大数据集群上用深度学习技术来分析大数据,而不需要对数据进行任何拷贝。而之所以选择基于Apache Spark来开发BigDL,是因为Apache Spark是今天在大数据分析领域最领先、使用最广泛的大数据分析框架。“Apache Spark本身提供了一个非常高性能的分析引擎——一个基于内存的低延时、分布式数据分析的引擎,在上面用户可以进行各种各样的数据分析,很多Hadoop的应用都采用了Spark。” 戴金权说。
除了成本节省之外,BigDL的另一个特点是可以大大降低Hadoop用户的AI学习成本,比如,通过重用Hadoop平台上的现有大数据工具和流程,包括工作流的管理、资源管理等,这样可以大大提高用户深度学习应用的开发效率以及应用部署的效率。
“当深度学习被越来越多的人所接受后就希望它能够应用在生产中,而在构建新的人工智能深度学习应用时,那些普通大数据的用户尽管拥有大数据工程师或者数据科学家、数据分析师,但这些人很可能只会写SQL,并不擅长编程代码,也不是深度学习的专家,他们过去主要使用Hadoop、Spark平台来管理数据,对数据进行SQL处理、流分析,或者做一定的数据挖掘、机器学习、图分析等。”戴金权表示,这些人使用的一整套工具、架构和深度学习社区的工具、架构之间是有“断层”的,有了BigDL之后这些人就可以顺利填补这个“断层”。
戴金权说,英特尔希望借助BigDL来帮助用户,特别是大量的普通用户来跨越上述断层,能够让他们使用比较熟悉和了解、对他们来说也更加友好的一个软硬件架构,来让深度学习技术在他们现有的应用环境当中落地。
据悉,BigDL于2016年12月在GitHub上发布了第一个版本后,在接下来差不多一年多的时间发布了四个主版本。其中除英特尔外,BigDL也收到众多社区用户的代码贡献,比如阿里巴巴等等。而在用户方面,目前,BigDL四个版本都有用户在使用,遍布很多行业用户,也不乏知名用户。比如在国外有AWS、Azure、IBM、MasterCard,在国内有阿里巴巴、京东、金山云等。“
“我们很自信,我们认为BigDL是目前为止所看到的在大数据平台上开发深度学习应用的最好的框架和平台。” 戴金权说。
很显然,戴金权所说的这份自信并非盲目。
最后值得一提的是,英特尔其实在人工智能整个的技术栈上是做了非常多的工作,英特尔一直致力于提供端到端全栈人工智能解决方案,从设备端到网络到数据中心到云端,从底层硬件再到上层的优化计算库,比如英特尔的数学核心函数库MKL(Math Kernel Library),这是英特尔平台上最快的数学计算库,还有英特尔Nervana Graph计算库等,英特尔在上面也做了大量针对英特尔平台的优化工作,从TensorFlow到Caffe、Caffe2、AlexNet等,当然也包括基于Spark上的BigDL分布式深度学习的计算库等。
好文章,需要你的鼓励
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
尽管模型上下文协议(MCP)自11月推出以来用户数量快速增长,但金融机构等监管行业仍保持谨慎态度。银行等金融服务公司虽然在机器学习和算法方面是先驱,但对于MCP和Agent2Agent(A2A)系统的采用较为保守。监管企业通常只使用内部代理,因为其API集成需要经过多年审查以确保合规性和安全性。专家指出,MCP缺乏基本构建块,特别是在互操作性、通信标准、身份验证和审计跟踪方面。金融机构需要确保代理能够进行"了解您的客户"验证,并具备可验证的身份识别能力。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。