2025 年 AI 预测:没有 AGI,但会出现"杀手级应用"

本文是2025年AI预测系列的第一篇。尽管AGI和技术奇点引发了广泛讨论,但作者认为2025年不会出现AGI。相反,大型语言模型将找到其"杀手级应用"。文章分析了当前AI技术的局限性,预测2025年将出现更多专用AI解决方案,提高生产力并在某些领域超越人类表现,但这并不等同于AGI。作者呼吁关注AI的实际风险和机遇,而非陷入AGI争论。

这是 2025 年 AI 预测的第一篇。人工通用智能 (AGI) 和技术奇点一直是 AI 领域的热门话题,引发了恐惧和兴奋。Sam Altman 最近甚至预测 AGI 将在 2025 年到来,Elon Musk 则说是 2026 年。这些大胆预测更多是炒作而非现实。2025 年不会出现 AGI,但大语言模型将找到它们的"杀手级应用"。

什么是 AGI 和技术奇点?

AGI (人工通用智能):指的是一种高级 AI,能够像人类一样在广泛的任务中思考、学习和解决问题。

技术奇点:这是指 AI 超越人类智能,不断自我完善,并在社会中引发大规模、不可预测变化的概念。

我的预测:2025 年我们不会看到这些。让我们深入技术,了解为什么我们离此还远。

句子补全不等于智能或 AGI

生成式 AI,如 OpenAI 的 GPT 模型,可以进行类人对话。这听起来很神奇,但它仅限于发现和重复模式。ChatGPT 和类似系统基于所谓的"大语言模型"。它们通过预测基于训练数据统计上最可能的下一个词或 token 来工作。例如:

输入:"生活就像一盒..."

预测:"巧克力"(感谢《阿甘正传》)。

这不是真正的理解,只是模式匹配。生成式 AI 不会"考虑"其他选项,如"一盒惊喜"。它可能看起来很智能,因为它能给出精致的回答,但它并不比一个不在乎输赢的国际象棋电脑更有自我意识。

OpenAI 的"o1":这难道不是 AGI 的第一步吗?

不,不是。让我们看看它是什么。OpenAI 的 O1,于 2024 年发布,不直接回答给定的问题。相反,它创建一个计划来确定回答问题的最佳方式。然后它批评自己的回应,改进它,并继续完善。这种链式输出确实令人印象深刻。

让我们批评一下这句话:"生活就像一盒巧克力。"

陈词滥调因素:使用过度。 范围有限:仅关注不可预测性。 文化偏见:可能无法在全球范围内引起共鸣。

不错...基于这个批评,AI 现在可以创作一个改进的句子。

2025 年将看到许多这样的"链",但不会出现 AGI

我最近推出了一个 eCornell 在线课程,培训学生使用 AI 和数据思考产品。为了使这个相当技术性的 AI 和产品课程作为无代码课程易于理解,我创建了与 o1 相同的迭代过程。

首先,学生制定产品概念(计划)。 接下来,AI 工具自主生成代码(生成)。 在运行时,可能会出现错误(测试)。 然后 AI 工具批评自己的输出(批评)并迭代改进。

创新之处在于 OpenAI 能够多次通过这个循环来改进答案。但这是智能吗?不是。这是一个固定的框架,不是动态的。这种方法也不可扩展。你允许模型进行的批评循环越多,它就能解决问题的更多方面,但这会以增加时间为代价。

别误会我的意思。O1 很amazing,但它也突出了我们在实现 AGI 的过程中面临的根本技术挑战。

实现 AGI 的障碍

人类可以快速直觉地思考(系统 1)或缓慢逻辑地思考(系统 2)。AI 只通过模式工作,缺乏这种平衡。 AI 难以理解上下文,经常错过人类自然捕捉到的重要细节。 当前的 AI 在前一个输出的基础上构建新的输出(称为自回归模型),所以错误可能会雪球效应。

许多研究人员认为这些问题中的大部分可能是可以修复的。什么时候?2050 年?2030 年?...但不是今年。

2025 年会发生什么?

2025 年,我们将看到更多窄 AI 解决方案集成到类似 OpenAI "o1" 方法的链中。这些系统将被设计成在特定任务上表现出色,当结合起来时,将提高生产力并在许多领域超越人类表现。这一发展将令人兴奋,但重要的是要强调,这些进步并不构成 AGI。我们应该关注 AI 的真正风险和机遇,而不是被 AGI 辩论分散注意力,也不要纠结于 AGI 是否会取代我们。这里有一个关于我观点的简短视频。简而言之:它不会。

那么 Sam 关于 AGI 的说法呢?

这主要是营销。大胆的声明能吸引注意力。AGI 的承诺能吸引注意力。明天,我将分享我对 2025 年的下一个预测,重点是大语言模型的最大应用。Sam 的预测可能看起来有些夸张,但对于我认为的最大应用或所谓的"杀手级应用"来说,这是正确的策略。敬请关注。

在 Forbes 或 LinkedIn 上关注我,了解更多我对 2025 年 AI 的预测。

来源:Forbes

0赞

好文章,需要你的鼓励

2025

01/03

17:15

分享

点赞

邮件订阅