微软现在将其Visual Studio Code编辑器的稳定版更新频率从原来的每月一次改为每周一次。最近发布的VS Code 1.112版和1.111版带来了智能体故障排除、集成浏览器调试以及Copilot CLI权限管理等新功能。同时,VS Code的Edit Mode正式被弃用。
VS Code 1.112于3月18日发布,而VS Code 1.111于3月9日发布。这两个版本都是在月度更新VS Code 1.110(3月4日发布)之后推出的。用户可以在Visual Studio Code官网找到下载说明。
VS Code 1.112中的集成浏览器调试功能意味着开发者可以直接在VS Code中打开Web应用,并使用集成浏览器启动调试会话。这使得开发者能够在不离开VS Code的情况下与Web应用交互、设置断点、逐步执行代码以及检查变量。
在VS Code 1.111中,Edit Mode正式被弃用。用户可以通过chat.editMode.hidden设置临时重新启用Edit Mode。此设置将在1.125版本之前继续支持。从1.125版本开始,Edit Mode将被完全移除,不再可能通过设置来启用它。
对于VS Code 1.112中的Copilot CLI会话,开发者可以为聊天中的本地智能体会话配置权限,从而赋予智能体更多的自主权并减少审批请求的数量。开发者可以在不同权限级别之间选择,包括默认权限、绕过审批和自动驾驶模式。
为了降低本地运行模型上下文协议(MCP)服务器的风险,VS Code 1.112的开发者现在可以在macOS和Linux上的沙盒环境中运行本地配置的studio MCP服务器。沙盒服务器具有受限的文件系统和网络访问权限。
同样在VS Code 1.112中,智能体现在可以原生地从磁盘读取图像文件和二进制文件。这使得开发者能够使用智能体执行更广泛的任务,如分析截图、从二进制文件读取数据等。二进制文件以十六进制转储格式呈现给智能体。
VS Code 1.111重点增强了智能体功能。在智能体故障排除方面,开发者获得了重要改进。为了帮助他们理解和排除智能体行为问题,开发者现在可以使用#debugEventsSnapshot在聊天中附加智能体调试事件的快照作为上下文。这可以用于询问智能体关于加载的自定义设置、Token消耗情况,或排除智能体行为故障。开发者还可以选择智能体调试面板右上角的闪烁聊天图标,将调试事件快照作为附件添加到聊天编辑器中。选择附件会打开智能体调试面板日志,并过滤到快照拍摄时的时间戳。
在智能体方面,VS Code 1.111在聊天视图中添加了新的权限选择器,用于控制智能体的自主程度。权限级别仅适用于当前会话。开发者可以在会话期间随时通过从权限选择器中选择不同级别来更改它。
在智能体领域的进一步发展中,VS Code 1.111中的自定义智能体frontmatter增加了对智能体范围钩子的支持,这些钩子仅在选择特定智能体或通过runSubagent调用时运行。这使得可以为特定智能体附加预处理和后处理逻辑,而不影响其他聊天交互。
VS Code 1.111还预览了自动驾驶功能。这使得智能体可以自主迭代直到完成任务。
Q&A
Q1:VS Code现在多久更新一次?
A:微软现在将Visual Studio Code的稳定版更新频率从原来的每月一次改为每周一次,这意味着用户可以更频繁地获得新功能和改进。
Q2:VS Code 1.112的集成浏览器调试功能有什么用?
A:集成浏览器调试功能允许开发者直接在VS Code中打开Web应用并启动调试会话,可以与Web应用交互、设置断点、逐步执行代码以及检查变量,无需离开VS Code环境。
Q3:VS Code中的Edit Mode什么时候会被完全移除?
A:Edit Mode在VS Code 1.111中被正式弃用,用户可以通过设置临时重新启用直到1.125版本。从1.125版本开始,Edit Mode将被完全移除,不再可能通过设置来启用。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。