至顶网软件频道消息: Magenta是谷歌的一个研究项目,目的是将人工智能用于艺术。Magenta日前为音乐家推出一款新的玩具程序—— NSynth Super。
NSynth Super的描述是"开源实验工具"。NSynth Super令音乐人可以与Magenta团队的NSynth(神经合成器)机器学习算法一起玩上一把。
Magenta利用WaveNet开发了NSynth算法。WaveNet是用谷歌自己的DeepMind开发的神经网络,可以令人工语音听起来更加自然。用到的方法也可令NSynth模拟出现实世界里不可能存在的乐器。
Magenta研究员Douglas Eck和谷歌创意实验室主任Steve Vranakis 是这样解释的,"这东西是一种机器学习算法,它利用深度神经网络学习声音的特性,然后根据这些特性创建出一种全新的声音。NSynth并不是将这些声音整合或混合在一起,而是利用原始声音的音质合成一种全新的声音,获得的声音可以同时一部分是笛子的声音、一部分是西塔琴的声音。"
NSynth Super配有触摸屏和表盘控制等功能,另配OLED显示屏和定制设计的电路板。 NSynth Super的源码为创建者提供了构建自己的乐器所需的一切东西,包括应用软件、固件、PCB原理图、相应的激光切割模板、表盘的3-D打印机设计文件等等。该项目甚至还提供了整个装配过程每一步的照片。
Magenta 是2016年推出的,是谷歌大脑(Google Brain)团队正在开发中的机器学习技术。Magenta旨在构建"令艺术家和音乐家能够扩展(而不是取代!)他们的流程的工具"。 谷歌大脑团队在过去几年里发布了一些开源项目,包括一个用于创建网络应用程序工具,用户利用该工具可以和人工智能合奏钢琴。
Eck和Vranakis表示,"Magenta的部分目标是要缩小艺术创作和机器学习之间的差距。因此,我们与艺术家、编码人员和机器学习研究人员社区合作,以期更多地了解如何做才能令创作者借助机器学习工具发挥更大的威力。我们还创造了包括TensorFlow和openFrameworks在内的开源库,包括NSynth Super。"
Google指,NSynth Super"不是谷歌官方产品",和其他Magenta开源项目一样。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。