至顶网软件频道消息:上周发表的《自然》(Nature)杂志刊载了IBM和麻省理工学院在量子计算机上实现机器学习的一些有趣的研究结果。
文章提及,在有些机器学习方面,量子计算机实际上比经典(即是说电子)计算机更具有一定的优势。
至于量子是否可以导致“杀手级应用程序”尚无定论。如果只是一些在量子计算中可以做而在经典计算中很难做到的东西是不足以成为杀手级应用程序的;必须是值得做的东西。
IBM旗下T.J. Watson研究中心的研究人员(包括Vojtech Havlícek、AntonioD.Córcoles、Kristan Temme、Abhinav Kandala、Jerry M. Chow和Jay M. Gambetta)与麻省理工学院理论物理中心的Aram W. Harrow合作撰写了《自然》杂志文章,题为“量子增强特征空间里的监督学习” (https://www.nature.com/articles/s41586-019-0980-2)。另外有一篇独立的补充材料文章 (https://static-content.springer.com/esm/art%3A10.1038%2Fs41586-019-0980-2/MediaObjects/41586_2019_980_MOESM1_ESM.pdf)也绝对值得一读。
Temme和Gambetta还撰写了一篇博客文章(https://www.ibm.com/blogs/research/2019/03/machine-learning-quantum- advantage/)。
以上的研究人员在IBM的“IBM Q”量子机器上运行了机器学习算法,而且他们是用两个量子比特(Qubits)完成的,因此是个现在就能用的实际系统,并不是要等十年后才可能上线的几十个量子比特。
IBM的双量子比特量子机将数据编成“特征映射”,用了两层Hadamard门及名为相位门的交织。(图:
IBM)。
研究人员用量子比特构建了一个分类器程序,该程序根据数据中的模式学习如何将数据分配到不同的类别。他们发现如果用两个 Hadamard门构建分类器就可以得到比传统计算机更复杂的功能。Hadamard门是一种类似于傅里叶变换的数据转换。
他们用的的机器学习并不是深度学习,而是传统上被称为“浅”网络的机器学习,他们用了 “支持向量机”或SVM的量子版,SVM是由Vladimir Vapnik在上世纪90年代提出的。
具单个权重“内核”的SVM将输入数据转换为“特征映射”后,数据可以被彻底分离并置放在不同的桶里。 Havlícek及其同事寻找的是在经典计算机上难以计算的特征映射。他们在文章里提到,他们发现一些所需要的特征映射,这些特征映射需要用到上面提到的多个Hadamard门。
问题是会不会有人想要极复杂的特征映射。深度学习领域多年来都是认为SVM方法和类似内核方法比诸如卷积神经网络(CNN)或递归神经网络( RNNs)等支持深度神经网络的的方法性能差一些。
蒙特利尔大学MILA学院的Yoshua Bengio及其同事在2013年的文章里提到,深层网络可表达成等级结构(https://arxiv.org/abs/1206.5538)。深度学习的全部意义在于,计算限制的约束迫使深度网络使用一个规则达到产生抽象的目的,从而导致有意义的普遍化。
正如Bengio在文章里写的,“我们可以用层次结构里的其他概念来描述我们周围的世界,这是一个有用的概念,层次结构里高层更抽象的概念可以用不那么抽象的概念来定义。”
机器学习的深度学习形式的智能来自限制。限制迫使抽象的分级,进而导致数据更复杂的表达方法。IBM研究人员也是在寻求构建表达的方法,只不过他们要构建的是一个非常难于计算的单一特征映射。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。