微软为 Visual Studio Code (VS Code) 开发的 C/C++ 扩展在 VS Codium 和 Cursor 等衍生产品中不再可用 —— 部分开发者对此表示强烈不满。
今年四月初,使用 VS Codium(微软基于 MIT 许可证开源的 VS Code 分支)和基于 VS Code 代码库构建的商业 AI 代码助手 Cursor 的程序员发现,C/C++ 扩展停止了工作。
该扩展为 VS Code 增加了 C/C++ 语言支持,如 Intellisense 代码补全和调试功能。从竞争性工具中移除这些功能破坏了开发者工作流,使编辑器功能受限,并可能阻碍市场竞争。
这一重大变更似乎始于 2025 年 4 月 3 日发布的 v1.24.5 版本。
在四月更新之后,尝试在 VS Code 之外安装 C/C++ 扩展时会出现如下错误信息: "The C/C++ extension may be used only with Microsoft Visual Studio, Visual Studio for Mac, Visual Studio Code, Azure DevOps, Team Foundation Server, and successor Microsoft products and services to develop and test your applications." ( C/C++ 扩展仅可用于 Microsoft Visual Studio、Visual Studio for Mac、Visual Studio Code、Azure DevOps、Team Foundation Server 以及后继微软产品和服务,以开发和测试您的应用程序。)
自 2020 年 9 月发布现行许可条款以来,微软就已经禁止在其自有软件产品之外使用其扩展,但直到现在才在 C/C++ 扩展的二进制文件中通过环境检测来执行该条款。
(据称,微软用于 Python 编程的 PyLance 扩展多年来就呈现出这一行为,阻止其在 VS Code 分支中使用。)
最新发布的特定扩展在 Cursor 或其他非微软编辑器中均无法使用。
Anysphere 的联合创始人兼 CEO Michael Truell(Anysphere 为 Cursor 开发方)在两周前的讨论帖中表示,已推出临时修复措施,并计划推出更永久的解决方案。
他在文中写道:"微软有少数几款扩展是闭源的," 并举例提到 Remote Access、Pylance、C/C++ 和 C#。" 最新版本的这些特定扩展在 Cursor 或其他非微软编辑器中均无法工作。
"展望未来,Cursor 将逐步放弃这些扩展。我们正在投资已有的社区开源替代方案,并将在下个版本中捆绑这些方案,以实现无缝过渡。"
据称,Cursor 长期以来一直藐视微软的服务条款,通过设置反向代理来掩饰其对微软 Visual Studio Marketplace 所使用端点的网络请求,从而使 Cursor 用户能够从微软市场安装 VS Code 扩展。而其他 VS Code 分支则倾向于指向 Open VSX——一个替代扩展市场。
Truell 对评论请求未予回复。
与此同时,VS Codium 用户正在寻找免费(指自由)的开源替代方案。
在 Cursor 的 GitHub 仓库中讨论这一问题的开发者指出,微软最近在其 Copilot 软件中推出了一个名为 Agent Mode 的竞争性 AI 软件代理功能。
一位匿名联系《The Register》 的开发者表示,他们已就此情况致信美国联邦贸易委员会,要求其调查微软是否存在不正当竞争行为 —— 指控微软存在自我偏好、捆绑 Copilot 且无移除选项,并封锁如 Cursor 等竞争对手,以将用户锁定在其 AI 生态系统之中。
微软未立即对此置评。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。