谷歌半年多以前公布推出可以演奏钢琴的人工智能程序,该人工智能程序可以将一些给定的音符变成一首歌。搜索巨头谷歌日前决定与全世界分享旗下的人工智能二重奏网络应用程序。
YotamMann是一名音乐家,同时也是码农,他是上述新的人工智能程序的幕后人。他在谷歌Magenta和Creative Labs团队的帮助下创建该人工智能程序。Mann在一个视频中解释了该人工智能程序幕后的过程以及人工智能程序如何在拿到乐谱后即时弹奏新的音乐。
Mann表示,“利用代码做音乐并不是新事物,但机器学习为我们提供了一个不同的方法。假如我试图用更传统的编程去写人工智能二重奏程序的话,那我就必须写许多规则。”
曼解释说,假如用人工智能编程的旧方法,他就必须告诉计算机如何去对各种输入作出响应,而各种可能的输入非常多,要这样做是不可能的。他表示,“我主要是创建一个映射去告诉计算机如何做出这些决定,但音符和时间的组合太多,用人手映射是做不到的。”
Mann用神经网络训练人工智能二重奏程序,而不是用特定的规则编程。神经网络技术的工作原理有些像人类的大脑,一些人工神经元合力构成连接并且强化现存的知识。
谷歌将大量音符组合输送给上述的人工智能程序,该人工智能程序从这些数据里学习常常同时演奏或先后演奏的音符之间的连接、时间关系等等。你弹了几个音符后,人工智能二重奏程序就会将其数据与神经网络里的连接比较,再决定从几种可能里选一个连接演奏。Mann表示,不管你给的是什么,人工智能二重奏程序都会尝试给你伴奏,即使你砸几下键盘,它也会以相应的节奏和旋律给你伴奏。
Mann构建人工智能二重奏程序用到Magenta。Magenta是一个谷歌大脑团队用TensorFlow建造的开源深度学习库。人工智能二重奏的代码也是开源的,所以如果你想建造一款自己的演奏钢琴的机器人,现在可以开始了。
笔者与谷歌人工智能二重奏程序演奏的结果不是特别顺溜,但或许人工智能二重奏程序的弹奏水平不会超过弹奏伙伴吧。不管怎么样,人工智能二重奏程序还是没可能和我们玩“筷子”法合奏。
好文章,需要你的鼓励
这项由浙江大学与阿里巴巴通义实验室联合开展的研究,通过创新的半在线强化学习方法,显著提升了AI界面助手在多步骤任务中的表现。UI-S1-7B模型在多个基准测试中创造了7B参数规模的新纪录,为GUI自动化代理的发展开辟了新的技术路径。
阿里巴巴联合浙江大学开发的OmniThink框架让AI学会像人类一样慢思考写作。通过信息树和概念池的双重架构,系统能够动态检索信息、持续反思,突破了传统AI写作内容浅薄重复的局限。实验显示该方法在文章质量各维度均显著超越现有最强基线,知识密度提升明显,为长文本生成研究开辟了新方向。
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
腾讯混元3D 2.0是一个革命性的3D生成系统,能够从单张图片生成高质量的带纹理3D模型。该系统包含形状生成模块Hunyuan3D-DiT和纹理合成模块Hunyuan3D-Paint,采用创新的重要性采样和多视角一致性技术,在多项评估指标上超越现有技术,并提供用户友好的制作平台。作为开源项目,它将大大降低3D内容创作门槛,推动3D技术的普及应用。