ZD至顶网软件频道消息:本周早些时候泄露的文档显示:微软正在向开发者提供两个新测试版Visual Studio的服务:Visual Studio for Mac以及Visual Studio 2017 for Windows。
Visual Studio for Mac并不是Visual Studio for Windows的另一端,而是贴牌版的Xamarin Studio集成开发环境(IDE,运行在Mac上)。(微软在2016年2月收购了移动工具厂商Xamarin)。现在用户已经可以下载使用Visual Studio for Mac的预览版。
Visual Studio 2017是微软“Visual Studio Next”(或者代号“VS 15”)的官方命名。截至今天,该产品一个接近最终发布版本的候选版本已经提供给测试者开始使用了。这个发布候选版中包括一系列新功能,目前大多数基本已经完成。微软方面本周透露,最终发布版本的Visual Studio 2017将会在2017年早些时候推出。
微软是在11月16日于纽约举行的Connect 2016开发者大会上公布这些消息的。在这次大会上,微软还宣布将以白金会员的身份加入Linux Foundation,Google将加入.NET Foundation的技术指导委员会。微软通过.NET Foundation(微软和Xamarin在2014年成立)开源了自己的一系列开发者技术,包括.NET以及ASP.NET组件。
Visual Studio for Mac将包括IntelliSense,并且通过Roslyn Compiler平台进行重构。它将采用MSBuild,以及面向Xamarin和.NET Core应用提供相同的调试器引擎,以及面向Xamarin.iOS和Xamarin.Android提供相同的设计。
Visual Studio 2017 for Windows也依赖Roslyn来重构C#和Visual Basic编辑器。即将发布的版本将包括在重构、代码生成、代码分析、导航、测试和调试方面的增强,微软方面这样表示。
今天在Connect大会上公布的消息还包括微软发布新的Visual Studio Mobile Center预览版,并且全面提供Visual Studio Team Foundation Server 2017以及Azure Application Insight。
Visual Studio Mobile Center是一个平台,旨在帮助开发者构建、测试、分发、监控内嵌于Objective-C、Swift、Java、Xamarin以及React Native for Android、iOS和Windows设备的应用。
此外,三星还发布了针对Tizen操作系统的Visual Studio Tools预览版,将允许开发者开发应用运行在三星电视、可穿戴设备、移动设备以及其他物联网设备上的Tizen操作系统上。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。