代码共享服务 GitHub发布了一款名为GitHub Copilot的新产品,这是一款面向软件开发人员的人工智能助手。
该产品是在利用人工智能技术简化IT运营的“AIOps”工具快速增长之际粉墨登场的,该产品目前仍然处于技术预览阶段,还不是一项成熟的服务。“AIOps”工具包括了可以帮助发现代码异常并跟踪应用程序性能的产品,它们能够为首席信息官及其团队节省大量的时间和金钱。研究公司Gartner估计,AIOps 市场目前每年价值约为15 亿美元。
GitHub Copilot会对以前的工作进行分析,并据此为开发人员提供代码行级别的建议。该产品底层的模型被称为Codex,是GitHub与Open AI联合开发的,后者是总部位于硅谷的一家人工智能研究公司,该公司使用了GitHub和其他来源管理的数十亿行代码对Codex模型进行了训练。微软是Open AI的支持方之一,并在2018年为GitHub提供了75亿美元。
GitHub的网站显示,这款新产品与Visual Studio Code配合使用,Visual Studio Code是一款免费的开源编辑器,适用于Windows、Linux 和 MacOS系统。该预览版特别适合一些流行的编程语言,例如Python、JavaScript 和 Ruby,但它也能理解数十种其他语言。开发人员可以用简单的英语写一条评论,描述他或者她正在寻找的逻辑,该系统会尝试据此生成代码。
人机匹配
GitHub Copilot会提供选项菜单,并且记录用户接受、拒绝或者编辑了哪些建议中的代码行,通过这种方式来了解每个开发人员的风格。GitHub 的首席执行官 Nat Friedman 将其描述为“与程序员配对”,这个术语通常指的是两名人类开发人员在一个项目上进行紧密合作的情况。该公司表示,迄今为止,绝大多数试用过该产品的用户都接受了Copilot 提出的建议。
如果它能够保持这一纪录,那么该系统就可以帮助开发人员迅速掌握新的编程语言,并且减少他们通过Stack Overflow 等服务寻求帮助的需要。Stack Overflow是一个开发人员社区,最近被南非投资基金以18亿美元收购。一些研究表明,开发人员花在在线搜索信息和帮助上的时间高达五分之一。
首席信息官们不仅仅将人工智能视为提高软件工厂效率的一种手段,还将其视为一种保持开发人员忠诚度的方式。开发人员能够使用的、先进的开发工具越多,他们就越有可能坚守岗位。
现在,经济正在改善,因此这一点比以往任何时候都更加重要。科技行业组织CompTIA 最近指出,美国目前IT岗位空缺的数量高达395,000 个,达到自2019年9月以来的最高水平,对开发人员的需求非常之高。(在最近的福布斯首席信息官峰会上,IT人才战争已经成为头等大事。)
Amir Arooni是市值360亿美元的Discover Financial Services 的首席信息官,Amir Arooni和其他一些技术领导者们认为,未来,最成功的公司将是那些将软件视为一门手艺的公司,这些公司能够为他们的技术工匠配备最好的工具(包括人工智能支持的产品),帮助他们出色地扮演自己的角色。GitHub这款最新的产品完全符合这种世界观。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。