企业要应对越来越多的数据,无论是在组织内部生成的数据,还是从外部来源收集的数据,如何寻找有效的方法来分析和“操作”所有这些数据从而获得竞争优势,正在变得越来越具有挑战性。
这也推动了数据科学和机器学习领域对新工具和信技术的需求。根据财富商业洞察报告显示,仅2021年全球机器学习市场规模就达到了154.4亿美元,预计今年将达到211.7亿美元,到2029年将增长到2099.1亿美元,复合年增长率为38.8%。
与此同时,根据联合市场研究报告显示,2020年全球数据科学平台市场规模为47亿美元,预计到2030年将达到797亿美元,复合年增长率为33.6%。
“数据科学”和“机器学习”两个概念有时候容易被混淆、甚至是相互替换使用,但其实这是两个不同的概念,它们之间存在相关性,因为数据科学实践是机器学习项目的关键。
根据Master’s in Data Science网站的说法,数据科学是一个使用科学方法从数据中提取意义和洞察的研究领域,包括了制定数据分析策略、为分析准备数据、开发数据可视化和构建数据模型等方面。
根据财富商业洞察报告指出,机器学习则是人工智能这个范围更广的领域下一个子板块,是使用数据分析来教计算机如何使用基于算法和数据的模型去学习,也就是模仿人类学习的方式。
市场对数据科学和机器学习工具的需求,催生了一大批在数据科学或者机器学习领域开发前沿技术的初创公司,包括以下10家:
*Aporia
*Black Crow AI
*Comet
*dotData
*Neuton
*Pinecone
*Snorkel AI
*Striveworks
*Tecton
*Verta
1. Aporia
创始人、首席执行官:Liran Hason
总部:以色列特拉维夫
网址:https://www.aporia.com/
Aporia创立于2020年,开发了一个全栈的、高度可定制的机器学习可观察性平台,让数据科学和机器学习团队可以用来监控、调试、解释和改进机器学习模型和数据。
Aporia在种子轮融资中获得了500万美元,之后又在2022年3月的A轮融资中获得2500万美元。
Aporia将在2023年之前利用这笔资金把员工规模扩大两倍,以及扩大在美国的业务规模,及其技术所覆盖的使用场景范围。
2. Black Crow AI
创始人、首席执行官:Richard Harris
总部:美国纽约
网址:https://www.blackcrow.ai/
Black Crow AI开发了一个针对电商应用的机器学习平台,让那些在线直接面向消费者的商家使用他们的模型预测访客购物时的行为和未来价值。该软件可以实时分析数十亿个数据点,用于增强客户体验、管理客户流失、优化营销支出。
Black Crow AI创立于2020年,在今年3月进行的A轮融资中获得了2500万美元,总融资额达到3000万美元。Black Crow AI将利用这笔资金加速在数字商务和相邻垂直领域挖掘新的、可用的机器学习场景。
3. Comet
联合创始人、首席执行官:Gideon Mendels
总部:美国纽约
网址:https://www.comet.ml/site/
Comet的平台为数据科学家和数据科学团队提供了管理和优化整个机器学习生命周期的能力,包括构建和训练模型、实验跟踪和模型生产监控,以提高可见性、协作和生产力。
Comet创立于2017 年,在去年11月进行的B轮融资中获得了5000万美元,但是该公司称其年度经常性收入增长了5倍,全球员工规模增加了2倍,客户包括Ancestry、Etsy、Uber和Zappos。
4. dotData
创始人、首席执行官:Ryohei Fujimaki
总部:美国加州圣马特奥
网址:https://dotdata.com/
dotData的软件提供了自动化特征工程和企业AI自动化功能,用于构建人工智能或者机器学习模型。在机器学习开发过程中,特征工程是在那些用于开发和训练机器学习模型的数据中,寻找重要隐藏模式的一个关键步骤)。
dotData的旗舰产品是dotData Enterprise预测分析自动化软件,此外还提供相关产品,包括dotData Cloud AI自动化平台、dotData Py和 dotData Py Lite工具,以及用于实时AI模型的dotData Stream。
dotData创立于2018年,是从NEC分拆出来的一个公司,在今年4月进行的B轮融资中获得了3160万美元,总融资金额达到7460万美元。dotData一直在利用这些外部资金加速自身产品开发。
5. Neuton
首席执行官:Andrey Korobitsyn
总部:美国加州圣何塞
网站:https://neuton.ai/
Neuton创立于2021年,开发了一种自动化的无代码“tinyML”平台和其他工具,用于开发可嵌入微控制器的微型机器学习模型,从而使边缘设备变得智能。
Neuton的技术正在进入广泛的应用领域,包括压缩机水泵的预测性维护、防止电网过载、房间占用检测、手持设备上的手写识别、齿轮箱故障预测和水污染监测设备等。
6. Pinecone
创始人、首席执行官:Edo Liberty
总部:美国旧金山
网址:https://www.pinecone.io/
Pinecone开发了一种矢量数据库和搜索技术,为人工智能和机器学习应用提供动力。去年10月,Pinecone推出了Pinecone 2.0,将该软件从研究实验室带到了生产应用中。
Pinecone创立于2019年,去年走出隐身模式,在2021年1月的种子轮融资中获得1000万美元,在今年3月进行的A轮融资中获得了2800万美元。
Gartner在2021年将Pinecone评为人工智能和机器学习数据领域的“Cool Vendor”。
7. Snorkel AI
联合创始人、首席执行官:Alex Ratner
总部:美国加州红木城
网站:https://snorkel.ai/
Snorkel创立于2019年,起源于斯坦福大学的人工智能实验室,公司的五位创始人当时都是在这个实验室研究解决机器学习开发缺乏标记训练数据的问题。
Snorkel在今年3月推出了Snorkel Flow,这个数据为中心的系统通过使用程序化标签来加速人工智能和机器学习的开发,而程序化标签也是数据准备和机器学习模型开发和训练过程中的一个关键步骤。
Snorkel的估值在2021年8月就突破了10亿美元,当时这家初创公司在C轮融资中获得了8500万美元,用于扩大工程和销售团队以及加速平台开发。
8. Striveworks
首席执行官:James Rebesco
总部:美国德克萨斯州奥斯汀
网站:https://striveworks.us/
Striveworks创立于2018年推出,主要为那些受高度监管的行业开发MLOps技术。
Striveworks的旗舰产品Chariot Platform主要用于运营数据科学,可减轻创建人工智能或机器学习解决方案的负担。该系统可监督数据获取和准备的过程,以及机器学习模型的训练、验证、部署和监控,而且所有这些都在云端、本地或网络边缘进行的。
9. Tecton
联合创始人、首席执行官:Mike Del Balso
总部:美国旧金山
网址:https://www.tecton.ai/
Tecton开发了一个机器学习功能库平台,可以将机器学习应用的部署速度从几个月缩短到几分钟。Tecton的技术可以自动转换原始数据、生成训练数据集、提供大规模在线推理功能。
Tecton创立于2019年,创始人曾开发了Uber Michelangelo机器学习平台,后来公司在2020年4月走出隐身模式。
10. Verta
首席执行官:Manasi Vartak
总部:美国加州门洛帕克
网址:https://www.verta.ai/
Verta的平台可被数据科学和机器学习团队用于在整个人工智能和机器学习模型生命周期中部署、操作、管理和监控模型。
Verta本月Gartner评为核心AI技术的“Cool Vendor”。
好文章,需要你的鼓励
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。
这项研究探讨了多模态大语言模型在增强推理能力时出现的视觉幻觉问题。研究发现,模型生成更长推理链时,对视觉信息的关注减少,导致幻觉增加。研究者提出RH-AUC指标和RH-Bench基准来评估模型在推理与幻觉间的平衡,发现较大模型表现更好,纯强化学习训练优于监督微调加强化学习,且训练数据的类型比数量更重要。这些发现对开发既具推理能力又保持视觉准确性的AI系统具有重要意义。
这篇研究探讨了大语言模型在自动推理任务中的不确定性问题。研究者提出,模型生成形式规范时的概率不确定性不是缺陷,而是宝贵的信号源。通过引入概率上下文无关文法框架分析SMT-LIB程序分布,他们发现不确定性信号具有任务相关性(如逻辑任务中的语法熵AUROC>0.93)。他们的轻量级信号融合方法能减少14-100%的错误,仅需最小弃权,将大语言模型驱动的形式化转变为可靠工程学科。研究揭示当模型正确理解逻辑关系时会产生稳定的语法模式,为判断何时信任模型提供了可靠指标。
来自沙特阿拉伯王子苏丹大学和阿尔法萨尔大学的研究团队开发了GATE(General Arabic Text Embedding)模型,这是一套专为阿拉伯语设计的文本嵌入系统。该研究结合了套娃表示学习和混合损失训练方法,解决了阿拉伯语特有的语义处理挑战。GATE模型在MTEB基准测试的语义文本相似度任务中表现卓越,比包括OpenAI在内的更大模型高出20-25%,同时保持了多维度(768至64)的高效表现。研究通过详细的错误分析揭示了模型在不同相似度水平上的表现特点,为阿拉伯语NLP领域提供了新的研究方向。