一家新的创业公司希望帮助开发者创建定制化的、基于上下文的编程助手,这些助手可以连接任何模型并无缝集成到他们的开发环境中。
Continue 由 CEO Ty Dunn 和 CTO Nate Sesti 于 2023 年 6 月创立,是 Y Combinator 的校友。在过去几年中,该项目已在 GitHub 上获得约 23,000 颗星标,并在 Discord 社区拥有 11,000 名成员。为了延续这一势头,Continue 正在发布其产品 1.0 版本,并获得了 300 万美元的种子轮融资支持。
编程助手的爆发式增长
Continue 的发布恰逢 AI 编程助手的爆发式增长,如 GitHub Copilot 和 Google 的 Gemini Code Assist,更不用说像 Codeium 和 Cursor 这样从投资者那里筹集了大量资金的新兴公司。
Continue 将自己定位为"领先的开源 AI 代码助手",它可以连接任何模型,并允许团队通过从 Jira 或 Confluence 等平台导入数据来添加自己的上下文。
在连接模型和上下文后,开发者可以直接在编码环境中创建自定义自动完成和聊天体验。例如,自动完成功能会在用户输入时提供内联代码建议,而聊天功能则允许用户询问特定代码片段的相关问题。编辑功能还使用户能够通过描述所需的更改来修改代码。
今天的产品公告包括 Continue 针对 VS Code 和 JetBrains 的开源扩展的首个"重大"发布。
"这向企业表明这是一个可以信赖和构建的稳定项目," Dunn 在接受 TechCrunch 采访时表示。
此外,Continue 还推出了一个新的平台,可以类比为类似 Docker Hub、GitHub 或 Hugging Face 的平台——这是一个供开发者创建和分享自定义 AI 代码助手的地方,配备了用于定义和管理其各种构建模块的注册表。
在发布时,该平台包含预构建的 AI 编程助手,以及来自验证合作伙伴的"模块",包括 Mistral 的 Codestral 模型、Anthropic 的 Claude 3.5 Sonnet 和 Ollama 的 DeepSeek-R1。然而,任何个人供应商或开发者都可以向平台贡献模块和助手。
这里的模块可以指模型(指定使用哪个 AI 模型及其位置)、规则(用于自定义 AI 助手)、上下文(定义外部上下文提供者,如 Jira 或 Confluence)、提示(打包用于调用复杂指令的预写模型提示)、文档(定义文档站点,如 Angular 或 React)、数据(允许开发者将开发数据发送到预定义目标以进行分析)或 MCP 服务器(定义构建和共享语言模型工具的标准方式)。
"贡献文化"
这个新平台的理念是,大多数用户不需要深度定制——他们只需要对平台中已有的编程助手或模块进行小幅调整即可。
这就引出了一个问题:创建定制化内容并与全世界分享的动力是什么?事实证明,这与推动其他开源社区的动力是一样的。许多发布合作伙伴正是创建底层工具或模型的公司(如 Mistral 和 Anthropic),这使得 Continue 的新平台成为赢得开发者青睐的理想场所。
Continue 还支持三个"可见性"级别。开发者的贡献可以保持私密、在团队内部共享或完全公开。独立层级在技术上可以用于团队设置,只是缺少团队通常需要的一些功能。单独的"团队"层级为混合添加了额外的"多人"智能,具有管理所有模块和助手的管理控制—谁可以访问什么。
企业层级则通过对使用的模块、模型、版本和供应商进行更细粒度的控制,将数据、安全性和治理选项提升到更高水平。
Continue 此前在 2023 年底从 Y Combinator 毕业后筹集了 210 万美元,现在又筹集了 300 万美元的 SAFE(延迟股权分配的融资),由面向开发者的风险投资公司 Heavybit 领投。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。