这是 2025 年 AI 预测的第一篇。人工通用智能 (AGI) 和技术奇点一直是 AI 领域的热门话题,引发了恐惧和兴奋。Sam Altman 最近甚至预测 AGI 将在 2025 年到来,Elon Musk 则说是 2026 年。这些大胆预测更多是炒作而非现实。2025 年不会出现 AGI,但大语言模型将找到它们的"杀手级应用"。
什么是 AGI 和技术奇点?
AGI (人工通用智能):指的是一种高级 AI,能够像人类一样在广泛的任务中思考、学习和解决问题。
技术奇点:这是指 AI 超越人类智能,不断自我完善,并在社会中引发大规模、不可预测变化的概念。
我的预测:2025 年我们不会看到这些。让我们深入技术,了解为什么我们离此还远。
句子补全不等于智能或 AGI
生成式 AI,如 OpenAI 的 GPT 模型,可以进行类人对话。这听起来很神奇,但它仅限于发现和重复模式。ChatGPT 和类似系统基于所谓的"大语言模型"。它们通过预测基于训练数据统计上最可能的下一个词或 token 来工作。例如:
输入:"生活就像一盒..."
预测:"巧克力"(感谢《阿甘正传》)。
这不是真正的理解,只是模式匹配。生成式 AI 不会"考虑"其他选项,如"一盒惊喜"。它可能看起来很智能,因为它能给出精致的回答,但它并不比一个不在乎输赢的国际象棋电脑更有自我意识。
OpenAI 的"o1":这难道不是 AGI 的第一步吗?
不,不是。让我们看看它是什么。OpenAI 的 O1,于 2024 年发布,不直接回答给定的问题。相反,它创建一个计划来确定回答问题的最佳方式。然后它批评自己的回应,改进它,并继续完善。这种链式输出确实令人印象深刻。
让我们批评一下这句话:"生活就像一盒巧克力。"
陈词滥调因素:使用过度。 范围有限:仅关注不可预测性。 文化偏见:可能无法在全球范围内引起共鸣。
不错...基于这个批评,AI 现在可以创作一个改进的句子。
2025 年将看到许多这样的"链",但不会出现 AGI
我最近推出了一个 eCornell 在线课程,培训学生使用 AI 和数据思考产品。为了使这个相当技术性的 AI 和产品课程作为无代码课程易于理解,我创建了与 o1 相同的迭代过程。
首先,学生制定产品概念(计划)。 接下来,AI 工具自主生成代码(生成)。 在运行时,可能会出现错误(测试)。 然后 AI 工具批评自己的输出(批评)并迭代改进。
创新之处在于 OpenAI 能够多次通过这个循环来改进答案。但这是智能吗?不是。这是一个固定的框架,不是动态的。这种方法也不可扩展。你允许模型进行的批评循环越多,它就能解决问题的更多方面,但这会以增加时间为代价。
别误会我的意思。O1 很amazing,但它也突出了我们在实现 AGI 的过程中面临的根本技术挑战。
实现 AGI 的障碍
人类可以快速直觉地思考(系统 1)或缓慢逻辑地思考(系统 2)。AI 只通过模式工作,缺乏这种平衡。 AI 难以理解上下文,经常错过人类自然捕捉到的重要细节。 当前的 AI 在前一个输出的基础上构建新的输出(称为自回归模型),所以错误可能会雪球效应。
许多研究人员认为这些问题中的大部分可能是可以修复的。什么时候?2050 年?2030 年?...但不是今年。
2025 年会发生什么?
2025 年,我们将看到更多窄 AI 解决方案集成到类似 OpenAI "o1" 方法的链中。这些系统将被设计成在特定任务上表现出色,当结合起来时,将提高生产力并在许多领域超越人类表现。这一发展将令人兴奋,但重要的是要强调,这些进步并不构成 AGI。我们应该关注 AI 的真正风险和机遇,而不是被 AGI 辩论分散注意力,也不要纠结于 AGI 是否会取代我们。这里有一个关于我观点的简短视频。简而言之:它不会。
那么 Sam 关于 AGI 的说法呢?
这主要是营销。大胆的声明能吸引注意力。AGI 的承诺能吸引注意力。明天,我将分享我对 2025 年的下一个预测,重点是大语言模型的最大应用。Sam 的预测可能看起来有些夸张,但对于我认为的最大应用或所谓的"杀手级应用"来说,这是正确的策略。敬请关注。
在 Forbes 或 LinkedIn 上关注我,了解更多我对 2025 年 AI 的预测。
好文章,需要你的鼓励
这项由浙江大学与阿里巴巴通义实验室联合开展的研究,通过创新的半在线强化学习方法,显著提升了AI界面助手在多步骤任务中的表现。UI-S1-7B模型在多个基准测试中创造了7B参数规模的新纪录,为GUI自动化代理的发展开辟了新的技术路径。
阿里巴巴联合浙江大学开发的OmniThink框架让AI学会像人类一样慢思考写作。通过信息树和概念池的双重架构,系统能够动态检索信息、持续反思,突破了传统AI写作内容浅薄重复的局限。实验显示该方法在文章质量各维度均显著超越现有最强基线,知识密度提升明显,为长文本生成研究开辟了新方向。
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
腾讯混元3D 2.0是一个革命性的3D生成系统,能够从单张图片生成高质量的带纹理3D模型。该系统包含形状生成模块Hunyuan3D-DiT和纹理合成模块Hunyuan3D-Paint,采用创新的重要性采样和多视角一致性技术,在多项评估指标上超越现有技术,并提供用户友好的制作平台。作为开源项目,它将大大降低3D内容创作门槛,推动3D技术的普及应用。