【太平洋科技资讯】近日,谷歌发布了一篇名为Brain2Music的论文,该研究展示了一种利用人工智能生成音乐的新方法。这项技术能够读取、分析个体的功能性磁共振成像(fMRI)数据,并根据大脑活动模式自动生成音乐。
在这项研究中,谷歌招募了5名志愿者,先让他们听不同音乐类型的15秒音乐片段,包括蓝调、古典、乡村、迪斯科、嘻哈、爵士乐、金属、流行、雷鬼和摇滚等,然后记录志愿者的fMRI数据。
利用这些数据,谷歌训练了一个深度神经网络,以了解大脑活动模式与音乐节奏、情感等不同元素之间的关系。基于谷歌此前推出的MusicLM模型(基于文本生成音乐片段),Brain2Music能够根据fMRI生成15秒音乐片段。
研究结果显示,Brain2Music生成的15秒音乐片段中,有一段内容与测试听到的原版音乐“Oops!...I Did It Again”基本相同。
这是个有趣又新奇的模型,它为音乐创作和个性化音乐推荐提供了新的可能性。但这项技术仍处于早期阶段,还需要进一步的研究和改进。它能否达到人类音乐创作者的水平还需时间的检验,期待谷歌将其运用到产品上,为音乐领域带来更多的创新和惊喜!
网友评论