至顶网软件频道消息: 从2018年秋季开始,卡内基梅隆大学计算机科学学院(SCS)将开设全新的人工智能本科学位,根据该大学发表的一项声明称,该学位旨在让学生“深入了解如何将大量数据转化为可行决策”。
卡内基梅隆大学计算机科学学院院长Andrew Moore表示:“人工智能方面的专家从未像现在这样重要,不仅人才越来越短缺,而且雇主的需求也越来越高。卡耐基梅隆大学在人工智能领域拥有无与伦比的专业知识,这让我们有能力满足这方面的需求,我们的毕业生深入了解人工智能的力量以及如何利用这种力量帮助人类。”
Reid Simmons是卡内基梅隆大学机器人研究所的研究教授,也是这个人工智能计划新上任的负责人。他的研究集中在开发可靠、高度自主的系统方面——尤其是移动机器人——这种系统可以在丰富的、不确定的环境中运行以及开发可与人类社交互动的机器人。笔者有机会与他更深入地探讨了这个新计划。
问:这个想法最早是怎么提出的?
Simmons:我们考虑设立人工智能学位已经有大约四年时间了,但是去年秋天真正开始开展这个项目。主要动力来自于学生们希望来卡耐基梅隆大学学习人工智能,因为卡耐基梅隆大学在该学科中占有重要地位,但同时也正在努力构建开发人工智能能力所需的数学、统计学、算法、感知、规划和行动。通过将计算机科学学院多个学科的优势进行结合,我们能够编制出一套全面的课程,教授人工智能和机器学习的基本概念以及深入理解。
问:你能提供一些课程的例子吗?
Simmons:学生将学习数学(包括微积分、线性代数、概率和统计)、核心计算机科学(包括编程语言、数据结构、并行计算、计算理论、算法和系统)、核心AI(包括符号推理、搜索、计划、机器学习、图形模型、游戏理论、计算机视觉、自然语言、机器人技术和人机交互)。此外,学生将被要求至少参加一门伦理课程和一门认知心理学或认知科学课程。 https://www.cs.cmu.edu/bs-in-artificial-intelligence/curriculum
问:学生是直接申请课程吗?作为计划的一部分,你预计会有多少学生?
Simmons:我们预计每班接受30-35人,稳定状态的学生为100人。
所有学生将申请计算机科学学院,并且可以在第一年结束的时候选择人工智能专业。第一年他们主要学习数学和计算机科学课程这两个核心课程。然后他们可以选修3个SCS专业之一(计算机科学、人工智能、计算生物学)。目前,人工智能专业每年仅接受30-35名学生。由于这个上限和学位课程的需求,并不是所有申请人工智能专业的学生都可以被接受;不过,所有学生都可以选择计算机科学专业,如果他们愿意的话,他们可以在这个专业内专注于人工智能课程。不久将来的某个时候,我们期望提供人工智能方面的更多专业。在即将到来的学年中,目前有限数量的计算机科学学生可能被录取或转入人工智能专业,成为该专业大二或大三学生。
问:你预计未来会增加名额吗?
Simmons:是的,如果需求像我们预期的那样强劲,我们会增加名额的。有趣的是,限制因素不在于我们的人工智能专业,而是校园的物理空间,特别是大量本科生宿舍占了很大面积。我们正在研究为更多学生挤出空间的可能性。
好文章,需要你的鼓励
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。
这项研究探讨了多模态大语言模型在增强推理能力时出现的视觉幻觉问题。研究发现,模型生成更长推理链时,对视觉信息的关注减少,导致幻觉增加。研究者提出RH-AUC指标和RH-Bench基准来评估模型在推理与幻觉间的平衡,发现较大模型表现更好,纯强化学习训练优于监督微调加强化学习,且训练数据的类型比数量更重要。这些发现对开发既具推理能力又保持视觉准确性的AI系统具有重要意义。
这篇研究探讨了大语言模型在自动推理任务中的不确定性问题。研究者提出,模型生成形式规范时的概率不确定性不是缺陷,而是宝贵的信号源。通过引入概率上下文无关文法框架分析SMT-LIB程序分布,他们发现不确定性信号具有任务相关性(如逻辑任务中的语法熵AUROC>0.93)。他们的轻量级信号融合方法能减少14-100%的错误,仅需最小弃权,将大语言模型驱动的形式化转变为可靠工程学科。研究揭示当模型正确理解逻辑关系时会产生稳定的语法模式,为判断何时信任模型提供了可靠指标。
来自沙特阿拉伯王子苏丹大学和阿尔法萨尔大学的研究团队开发了GATE(General Arabic Text Embedding)模型,这是一套专为阿拉伯语设计的文本嵌入系统。该研究结合了套娃表示学习和混合损失训练方法,解决了阿拉伯语特有的语义处理挑战。GATE模型在MTEB基准测试的语义文本相似度任务中表现卓越,比包括OpenAI在内的更大模型高出20-25%,同时保持了多维度(768至64)的高效表现。研究通过详细的错误分析揭示了模型在不同相似度水平上的表现特点,为阿拉伯语NLP领域提供了新的研究方向。