这是 2025 年 AI 预测的第一篇。人工通用智能 (AGI) 和技术奇点一直是 AI 领域的热门话题,引发了恐惧和兴奋。Sam Altman 最近甚至预测 AGI 将在 2025 年到来,Elon Musk 则说是 2026 年。这些大胆预测更多是炒作而非现实。2025 年不会出现 AGI,但大语言模型将找到它们的"杀手级应用"。
什么是 AGI 和技术奇点?
AGI (人工通用智能):指的是一种高级 AI,能够像人类一样在广泛的任务中思考、学习和解决问题。
技术奇点:这是指 AI 超越人类智能,不断自我完善,并在社会中引发大规模、不可预测变化的概念。
我的预测:2025 年我们不会看到这些。让我们深入技术,了解为什么我们离此还远。
句子补全不等于智能或 AGI
生成式 AI,如 OpenAI 的 GPT 模型,可以进行类人对话。这听起来很神奇,但它仅限于发现和重复模式。ChatGPT 和类似系统基于所谓的"大语言模型"。它们通过预测基于训练数据统计上最可能的下一个词或 token 来工作。例如:
输入:"生活就像一盒..."
预测:"巧克力"(感谢《阿甘正传》)。
这不是真正的理解,只是模式匹配。生成式 AI 不会"考虑"其他选项,如"一盒惊喜"。它可能看起来很智能,因为它能给出精致的回答,但它并不比一个不在乎输赢的国际象棋电脑更有自我意识。
OpenAI 的"o1":这难道不是 AGI 的第一步吗?
不,不是。让我们看看它是什么。OpenAI 的 O1,于 2024 年发布,不直接回答给定的问题。相反,它创建一个计划来确定回答问题的最佳方式。然后它批评自己的回应,改进它,并继续完善。这种链式输出确实令人印象深刻。
让我们批评一下这句话:"生活就像一盒巧克力。"
陈词滥调因素:使用过度。 范围有限:仅关注不可预测性。 文化偏见:可能无法在全球范围内引起共鸣。
不错...基于这个批评,AI 现在可以创作一个改进的句子。
2025 年将看到许多这样的"链",但不会出现 AGI
我最近推出了一个 eCornell 在线课程,培训学生使用 AI 和数据思考产品。为了使这个相当技术性的 AI 和产品课程作为无代码课程易于理解,我创建了与 o1 相同的迭代过程。
首先,学生制定产品概念(计划)。 接下来,AI 工具自主生成代码(生成)。 在运行时,可能会出现错误(测试)。 然后 AI 工具批评自己的输出(批评)并迭代改进。
创新之处在于 OpenAI 能够多次通过这个循环来改进答案。但这是智能吗?不是。这是一个固定的框架,不是动态的。这种方法也不可扩展。你允许模型进行的批评循环越多,它就能解决问题的更多方面,但这会以增加时间为代价。
别误会我的意思。O1 很amazing,但它也突出了我们在实现 AGI 的过程中面临的根本技术挑战。
实现 AGI 的障碍
人类可以快速直觉地思考(系统 1)或缓慢逻辑地思考(系统 2)。AI 只通过模式工作,缺乏这种平衡。 AI 难以理解上下文,经常错过人类自然捕捉到的重要细节。 当前的 AI 在前一个输出的基础上构建新的输出(称为自回归模型),所以错误可能会雪球效应。
许多研究人员认为这些问题中的大部分可能是可以修复的。什么时候?2050 年?2030 年?...但不是今年。
2025 年会发生什么?
2025 年,我们将看到更多窄 AI 解决方案集成到类似 OpenAI "o1" 方法的链中。这些系统将被设计成在特定任务上表现出色,当结合起来时,将提高生产力并在许多领域超越人类表现。这一发展将令人兴奋,但重要的是要强调,这些进步并不构成 AGI。我们应该关注 AI 的真正风险和机遇,而不是被 AGI 辩论分散注意力,也不要纠结于 AGI 是否会取代我们。这里有一个关于我观点的简短视频。简而言之:它不会。
那么 Sam 关于 AGI 的说法呢?
这主要是营销。大胆的声明能吸引注意力。AGI 的承诺能吸引注意力。明天,我将分享我对 2025 年的下一个预测,重点是大语言模型的最大应用。Sam 的预测可能看起来有些夸张,但对于我认为的最大应用或所谓的"杀手级应用"来说,这是正确的策略。敬请关注。
在 Forbes 或 LinkedIn 上关注我,了解更多我对 2025 年 AI 的预测。
好文章,需要你的鼓励
本文探讨了AI驱动的网络攻击如何在短短51秒内突破网络防线,并介绍了CISO们应对这些超高速攻击的策略。重点包括零信任架构、身份验证强化、AI驱动的实时威胁检测等。文章强调了迅速撤销会话令牌、统一端点和云安全、以及从恶意软件检测转向凭证滥用预防的重要性。
Lovelace Studio 正在开发名为 Nyric 的 AI 工具,帮助玩家在生存制作类沙盒游戏中打造自己的游戏世界。玩家可以使用 AI 工具创建独特风格的世界,并与其他玩家互动。该工具旨在赋予独立创作者和社交玩家更多能力,让他们能够轻松构建和连接自己的虚拟世界。
随着AI代码生成工具的广泛应用,企业面临着新的挑战。AI生成的代码可能存在安全漏洞、架构问题和合规风险。为此,企业需要实施严格的验证流程,认识AI在复杂代码库中的局限性,理解AI代码的特有问题,要求开发人员对代码负责,并建立高效的AI工具审批机制。同时,专门的代码分析工具也变得不可或缺。
AI 语音克隆技术的滥用正日益成为企业面临的重大安全威胁。近期多起高调事件显示,不法分子利用 AI 生成的虚假音频视频进行诈骗。目前许多语音克隆应用缺乏有效防护措施,企业领导人的公开音频很容易被用于克隆。专家呼吁采取多因素认证等措施加强防范,并预计未来将出台更多监管措施和检测技术来应对这一威胁。