一家新的创业公司希望帮助开发者创建定制化的、基于上下文的编程助手,这些助手可以连接任何模型并无缝集成到他们的开发环境中。
Continue 由 CEO Ty Dunn 和 CTO Nate Sesti 于 2023 年 6 月创立,是 Y Combinator 的校友。在过去几年中,该项目已在 GitHub 上获得约 23,000 颗星标,并在 Discord 社区拥有 11,000 名成员。为了延续这一势头,Continue 正在发布其产品 1.0 版本,并获得了 300 万美元的种子轮融资支持。
编程助手的爆发式增长
Continue 的发布恰逢 AI 编程助手的爆发式增长,如 GitHub Copilot 和 Google 的 Gemini Code Assist,更不用说像 Codeium 和 Cursor 这样从投资者那里筹集了大量资金的新兴公司。
Continue 将自己定位为"领先的开源 AI 代码助手",它可以连接任何模型,并允许团队通过从 Jira 或 Confluence 等平台导入数据来添加自己的上下文。
在连接模型和上下文后,开发者可以直接在编码环境中创建自定义自动完成和聊天体验。例如,自动完成功能会在用户输入时提供内联代码建议,而聊天功能则允许用户询问特定代码片段的相关问题。编辑功能还使用户能够通过描述所需的更改来修改代码。
今天的产品公告包括 Continue 针对 VS Code 和 JetBrains 的开源扩展的首个"重大"发布。
"这向企业表明这是一个可以信赖和构建的稳定项目," Dunn 在接受 TechCrunch 采访时表示。
此外,Continue 还推出了一个新的平台,可以类比为类似 Docker Hub、GitHub 或 Hugging Face 的平台——这是一个供开发者创建和分享自定义 AI 代码助手的地方,配备了用于定义和管理其各种构建模块的注册表。
在发布时,该平台包含预构建的 AI 编程助手,以及来自验证合作伙伴的"模块",包括 Mistral 的 Codestral 模型、Anthropic 的 Claude 3.5 Sonnet 和 Ollama 的 DeepSeek-R1。然而,任何个人供应商或开发者都可以向平台贡献模块和助手。
这里的模块可以指模型(指定使用哪个 AI 模型及其位置)、规则(用于自定义 AI 助手)、上下文(定义外部上下文提供者,如 Jira 或 Confluence)、提示(打包用于调用复杂指令的预写模型提示)、文档(定义文档站点,如 Angular 或 React)、数据(允许开发者将开发数据发送到预定义目标以进行分析)或 MCP 服务器(定义构建和共享语言模型工具的标准方式)。
"贡献文化"
这个新平台的理念是,大多数用户不需要深度定制——他们只需要对平台中已有的编程助手或模块进行小幅调整即可。
这就引出了一个问题:创建定制化内容并与全世界分享的动力是什么?事实证明,这与推动其他开源社区的动力是一样的。许多发布合作伙伴正是创建底层工具或模型的公司(如 Mistral 和 Anthropic),这使得 Continue 的新平台成为赢得开发者青睐的理想场所。
Continue 还支持三个"可见性"级别。开发者的贡献可以保持私密、在团队内部共享或完全公开。独立层级在技术上可以用于团队设置,只是缺少团队通常需要的一些功能。单独的"团队"层级为混合添加了额外的"多人"智能,具有管理所有模块和助手的管理控制—谁可以访问什么。
企业层级则通过对使用的模块、模型、版本和供应商进行更细粒度的控制,将数据、安全性和治理选项提升到更高水平。
Continue 此前在 2023 年底从 Y Combinator 毕业后筹集了 210 万美元,现在又筹集了 300 万美元的 SAFE(延迟股权分配的融资),由面向开发者的风险投资公司 Heavybit 领投。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。