这是 2025 年 AI 预测的第一篇。人工通用智能 (AGI) 和技术奇点一直是 AI 领域的热门话题,引发了恐惧和兴奋。Sam Altman 最近甚至预测 AGI 将在 2025 年到来,Elon Musk 则说是 2026 年。这些大胆预测更多是炒作而非现实。2025 年不会出现 AGI,但大语言模型将找到它们的"杀手级应用"。
什么是 AGI 和技术奇点?
AGI (人工通用智能):指的是一种高级 AI,能够像人类一样在广泛的任务中思考、学习和解决问题。
技术奇点:这是指 AI 超越人类智能,不断自我完善,并在社会中引发大规模、不可预测变化的概念。
我的预测:2025 年我们不会看到这些。让我们深入技术,了解为什么我们离此还远。
句子补全不等于智能或 AGI
生成式 AI,如 OpenAI 的 GPT 模型,可以进行类人对话。这听起来很神奇,但它仅限于发现和重复模式。ChatGPT 和类似系统基于所谓的"大语言模型"。它们通过预测基于训练数据统计上最可能的下一个词或 token 来工作。例如:
输入:"生活就像一盒..."
预测:"巧克力"(感谢《阿甘正传》)。
这不是真正的理解,只是模式匹配。生成式 AI 不会"考虑"其他选项,如"一盒惊喜"。它可能看起来很智能,因为它能给出精致的回答,但它并不比一个不在乎输赢的国际象棋电脑更有自我意识。
OpenAI 的"o1":这难道不是 AGI 的第一步吗?
不,不是。让我们看看它是什么。OpenAI 的 O1,于 2024 年发布,不直接回答给定的问题。相反,它创建一个计划来确定回答问题的最佳方式。然后它批评自己的回应,改进它,并继续完善。这种链式输出确实令人印象深刻。
让我们批评一下这句话:"生活就像一盒巧克力。"
陈词滥调因素:使用过度。 范围有限:仅关注不可预测性。 文化偏见:可能无法在全球范围内引起共鸣。
不错...基于这个批评,AI 现在可以创作一个改进的句子。
2025 年将看到许多这样的"链",但不会出现 AGI
我最近推出了一个 eCornell 在线课程,培训学生使用 AI 和数据思考产品。为了使这个相当技术性的 AI 和产品课程作为无代码课程易于理解,我创建了与 o1 相同的迭代过程。
首先,学生制定产品概念(计划)。 接下来,AI 工具自主生成代码(生成)。 在运行时,可能会出现错误(测试)。 然后 AI 工具批评自己的输出(批评)并迭代改进。
创新之处在于 OpenAI 能够多次通过这个循环来改进答案。但这是智能吗?不是。这是一个固定的框架,不是动态的。这种方法也不可扩展。你允许模型进行的批评循环越多,它就能解决问题的更多方面,但这会以增加时间为代价。
别误会我的意思。O1 很amazing,但它也突出了我们在实现 AGI 的过程中面临的根本技术挑战。
实现 AGI 的障碍
人类可以快速直觉地思考(系统 1)或缓慢逻辑地思考(系统 2)。AI 只通过模式工作,缺乏这种平衡。 AI 难以理解上下文,经常错过人类自然捕捉到的重要细节。 当前的 AI 在前一个输出的基础上构建新的输出(称为自回归模型),所以错误可能会雪球效应。
许多研究人员认为这些问题中的大部分可能是可以修复的。什么时候?2050 年?2030 年?...但不是今年。
2025 年会发生什么?
2025 年,我们将看到更多窄 AI 解决方案集成到类似 OpenAI "o1" 方法的链中。这些系统将被设计成在特定任务上表现出色,当结合起来时,将提高生产力并在许多领域超越人类表现。这一发展将令人兴奋,但重要的是要强调,这些进步并不构成 AGI。我们应该关注 AI 的真正风险和机遇,而不是被 AGI 辩论分散注意力,也不要纠结于 AGI 是否会取代我们。这里有一个关于我观点的简短视频。简而言之:它不会。
那么 Sam 关于 AGI 的说法呢?
这主要是营销。大胆的声明能吸引注意力。AGI 的承诺能吸引注意力。明天,我将分享我对 2025 年的下一个预测,重点是大语言模型的最大应用。Sam 的预测可能看起来有些夸张,但对于我认为的最大应用或所谓的"杀手级应用"来说,这是正确的策略。敬请关注。
在 Forbes 或 LinkedIn 上关注我,了解更多我对 2025 年 AI 的预测。
好文章,需要你的鼓励
管理数据、确保多云环境的安全性、以及保持业务连续性对企业日益重要,Commvault针对这类企业提出了一个新理念——持续业务(Continuous Business)。
本文是2025年AI预测系列的第一篇。尽管AGI和技术奇点引发了广泛讨论,但作者认为2025年不会出现AGI。相反,大型语言模型将找到其"杀手级应用"。文章分析了当前AI技术的局限性,预测2025年将出现更多专用AI解决方案,提高生产力并在某些领域超越人类表现,但这并不等同于AGI。作者呼吁关注AI的实际风险和机遇,而非陷入AGI争论。
本文探讨了生成式 AI 和大语言模型 (LLMs) 即将实现的近乎无限记忆能力这一重大突破。通过新的架构设计,AI 系统将能够存储和检索几乎无限量的对话历史,实现持续性的上下文理解和个性化交互。这项技术将彻底改变 AI 的应用方式,但同时也带来了隐私保护等方面的挑战。
本文探讨了风险投资家史蒂夫·贾维特森对摩尔定律的独特见解。他认为摩尔定律早在19世纪就已开始,并非仅限于晶体管技术。文章还分析了英伟达的成功、科学研究方法的转变,以及人工智能对各行业的深远影响。贾维特森的观点为我们理解技术发展趋势提供了新的视角。