计算和软件巨头IBM和SAP SE今天分别公布了多个项目,旨在让大型企业更容易地在他们的运营中使用深度学习,这些举措也表明深度学习神经网络正在步入主流。
深度学习神经网络试图模拟大脑的学习方式,让计算机自己学习而不是被明确编程。近些年,该方法已经在语音和图像识别方面取得了巨大进步,从Amazon Alexa数字助理到自动驾驶汽车的方方面面。
但是到目前为止,大多数深度学习的坚定支持者都是大型的互联网公司,例如Google、Facebook和微软。目前还没有太多大型企业在他们自己的核心应用中广泛使用这项技术。
IBM高性能计算和机器学习副总裁Sumit Gupta表示:“深度学习对企业而言正在变得越来越有趣。所有对人工智能的兴趣都是有深度学习推动的。”
机会是巨大的。根据来自Tractica公司的2016年度报告,全球深度学习软件年收入将从2015年的1.09亿美元增长到2024年的104亿美元,这意味着到2024年,在该企业市场的累计支持将达到406亿美元。
IBM和SAP在利用深度学习方面并不孤单。Google、Facebook、微软、Saleforce.com等企业多年来一直利用神经网络来强化他们自身的服务,并实现新的技术创新。但是目前,企业正在他们自己的应用中寻求好处,而这正是IBM和SAP,以及Google和微软等云提供商,希望提供的。
今天,IBM宣布将结合两组软件工具,旨在让企业更容易将AI技术运用于企业的运营中。IBM的Data Science Experiece是一个协作工作空间,可帮助数据科学家管理数据和训练机器学习模型。现在Data Science与IBM PowerAI深度学习平台相结合,后者提供了一系列开源软件框架例如TensorFlow、Caffe以及Torch,能够做图像和语音识别、自然语言处理以及类似需要长时间学习的任务。
此举的目的是让数据科学家针对各种任务更轻松地利用深度学习。例如,银行可以更准确地预测客户是否可能违约贷款或者检测信用卡欺诈。制造商可以利用历史机器数据来训练模型,在发生之前识别出潜在故障。此外还可以根据POS数据、天气和其他外部数据来优化库存管理。Gupta表示:“数据科学家不必在配置或者管理服务器上花费太多心思。”
Data Science Experience将在云和内部部署环境中提供,但是PowerAI只在内部部署环境中提供。所以这个集成软件只针对内部部署的数据中心,目前还没有关于云版本的明确计划。
另一方面,SAP在今天宣布将成为在采用Nvidia最新一代Volta GPU的计算机系统上提供企业机器学习技术组合的公司。GPU芯片通常用于游戏和其他图形密集的场景,因为可以并行处理大量数据、且远比传统处理器快得多而成为深度学习的标配。
Nvidia GPU最早于2016年安装在位于以色列和德国波兹坦的Nvidia DGX-1系统中,随后安装在SAP位于德国圣莱昂罗特的生产数据中心,以及位于加州帕洛阿尔托和新加坡的创新实验室中。目前,Nvidia GPU已经为SAP Leonardo机器学习软件组合的数据和算法训练提供支撑。
现在,SAP将升级自己位于圣莱昂罗特的数据中心,采用Nvidia的Volta系统,Nvidia公司副总裁、DGX计算总经理Jim McHugh表示,这是首个面向企业的Volta生产解决方案。SAP机器学习副总裁Markus Noga表示:“我们一直致力于为企业应用用户提供深度学习和人类层面智能性的好处。”
例如,SAP的Brand Impact是一项基于云的机器学习服务,可分析视频以检测品牌标识,以及在电影和电视中的曝光来确定广告效果。现在这项服务可以在24小时内提供分析,而以前手动操作需要6周时间。
SAP还有Machine Learning服务,以及客户服务票、客户发票与付款匹配、一个自动化应付账款系统原型。Noga表示,SAP计划从明年开始把这些服务扩展到主流企业资源规划应用例如核心财务、采购和生产等。
目前,在Volta系统上的Leonardo Machine Learning组合仅在云中提供,不过Noga表示,SAP正在准备内部部署的版本。
好文章,需要你的鼓励
这项研究针对现代文档检索系统中的关键缺陷:独立处理文档片段导致丢失上下文信息。研究团队开发了ConTEB基准测试来评估模型利用文档级上下文的能力,并提出了InSeNT方法,结合后期分块和创新的对比学习策略。实验表明,上下文感知嵌入显著提升检索性能,尤其在处理非自包含文本片段时,同时保持计算效率,对分块策略更具鲁棒性,并且在语料库规模扩大时表现更佳。这一研究为更智能的文档检索系统铺平了道路。
这项由布朗大学和Cohere实验室研究者联合进行的研究全面分析了大型语言模型(LLM)安全研究中的语言不平等现象。通过系统回顾近300篇2020-2024年间的安全相关论文,研究发现LLM安全研究严重偏向英语,即使中文这样的高资源语言也仅获得英语十分之一的研究关注,且这一差距正在扩大。研究还揭示非英语语言很少作为独立研究对象,且英语安全研究常忽略语言覆盖文档化。为解决这一问题,研究者提出了三个未来方向:开发文化敏感的评估基准、创建多语言安全训练数据,以及深入理解跨语言安全泛化挑战。
这项研究提出了ChARM,一种创新的角色扮演AI奖励建模框架,通过行为自适应边界和自我进化策略大幅提升AI角色的真实性和一致性。研究团队创建了包含1,108个角色的RoleplayPref数据集,实验表明ChARM比传统模型提高了13%的偏好排名准确率,应用于DPO技术后在多项基准测试中达到了领先水平。这一突破将为娱乐、教育和心理健康支持等领域带来更加自然、个性化的AI互动体验。
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。