这是 2025 年 AI 预测的第一篇。人工通用智能 (AGI) 和技术奇点一直是 AI 领域的热门话题,引发了恐惧和兴奋。Sam Altman 最近甚至预测 AGI 将在 2025 年到来,Elon Musk 则说是 2026 年。这些大胆预测更多是炒作而非现实。2025 年不会出现 AGI,但大语言模型将找到它们的"杀手级应用"。
什么是 AGI 和技术奇点?
AGI (人工通用智能):指的是一种高级 AI,能够像人类一样在广泛的任务中思考、学习和解决问题。
技术奇点:这是指 AI 超越人类智能,不断自我完善,并在社会中引发大规模、不可预测变化的概念。
我的预测:2025 年我们不会看到这些。让我们深入技术,了解为什么我们离此还远。
句子补全不等于智能或 AGI
生成式 AI,如 OpenAI 的 GPT 模型,可以进行类人对话。这听起来很神奇,但它仅限于发现和重复模式。ChatGPT 和类似系统基于所谓的"大语言模型"。它们通过预测基于训练数据统计上最可能的下一个词或 token 来工作。例如:
输入:"生活就像一盒..."
预测:"巧克力"(感谢《阿甘正传》)。
这不是真正的理解,只是模式匹配。生成式 AI 不会"考虑"其他选项,如"一盒惊喜"。它可能看起来很智能,因为它能给出精致的回答,但它并不比一个不在乎输赢的国际象棋电脑更有自我意识。
OpenAI 的"o1":这难道不是 AGI 的第一步吗?
不,不是。让我们看看它是什么。OpenAI 的 O1,于 2024 年发布,不直接回答给定的问题。相反,它创建一个计划来确定回答问题的最佳方式。然后它批评自己的回应,改进它,并继续完善。这种链式输出确实令人印象深刻。
让我们批评一下这句话:"生活就像一盒巧克力。"
陈词滥调因素:使用过度。 范围有限:仅关注不可预测性。 文化偏见:可能无法在全球范围内引起共鸣。
不错...基于这个批评,AI 现在可以创作一个改进的句子。
2025 年将看到许多这样的"链",但不会出现 AGI
我最近推出了一个 eCornell 在线课程,培训学生使用 AI 和数据思考产品。为了使这个相当技术性的 AI 和产品课程作为无代码课程易于理解,我创建了与 o1 相同的迭代过程。
首先,学生制定产品概念(计划)。 接下来,AI 工具自主生成代码(生成)。 在运行时,可能会出现错误(测试)。 然后 AI 工具批评自己的输出(批评)并迭代改进。
创新之处在于 OpenAI 能够多次通过这个循环来改进答案。但这是智能吗?不是。这是一个固定的框架,不是动态的。这种方法也不可扩展。你允许模型进行的批评循环越多,它就能解决问题的更多方面,但这会以增加时间为代价。
别误会我的意思。O1 很amazing,但它也突出了我们在实现 AGI 的过程中面临的根本技术挑战。
实现 AGI 的障碍
人类可以快速直觉地思考(系统 1)或缓慢逻辑地思考(系统 2)。AI 只通过模式工作,缺乏这种平衡。 AI 难以理解上下文,经常错过人类自然捕捉到的重要细节。 当前的 AI 在前一个输出的基础上构建新的输出(称为自回归模型),所以错误可能会雪球效应。
许多研究人员认为这些问题中的大部分可能是可以修复的。什么时候?2050 年?2030 年?...但不是今年。
2025 年会发生什么?
2025 年,我们将看到更多窄 AI 解决方案集成到类似 OpenAI "o1" 方法的链中。这些系统将被设计成在特定任务上表现出色,当结合起来时,将提高生产力并在许多领域超越人类表现。这一发展将令人兴奋,但重要的是要强调,这些进步并不构成 AGI。我们应该关注 AI 的真正风险和机遇,而不是被 AGI 辩论分散注意力,也不要纠结于 AGI 是否会取代我们。这里有一个关于我观点的简短视频。简而言之:它不会。
那么 Sam 关于 AGI 的说法呢?
这主要是营销。大胆的声明能吸引注意力。AGI 的承诺能吸引注意力。明天,我将分享我对 2025 年的下一个预测,重点是大语言模型的最大应用。Sam 的预测可能看起来有些夸张,但对于我认为的最大应用或所谓的"杀手级应用"来说,这是正确的策略。敬请关注。
在 Forbes 或 LinkedIn 上关注我,了解更多我对 2025 年 AI 的预测。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。