首页 > 热点播报 > 正文

谷歌发布Brain2Music模型 可基于人类大脑活动生成音乐

【太平洋科技资讯】近日,谷歌发布了一篇名为Brain2Music的论文,该研究展示了一种利用人工智能生成音乐的新方法。这项技术能够读取、分析个体的功能性磁共振成像(fMRI)数据,并根据大脑活动模式自动生成音乐。

在这项研究中,谷歌招募了5名志愿者,先让他们听不同音乐类型的15秒音乐片段,包括蓝调、古典、乡村、迪斯科、嘻哈、爵士乐、金属、流行、雷鬼和摇滚等,然后记录志愿者的fMRI数据。

利用这些数据,谷歌训练了一个深度神经网络,以了解大脑活动模式与音乐节奏、情感等不同元素之间的关系。基于谷歌此前推出的MusicLM模型(基于文本生成音乐片段),Brain2Music能够根据fMRI生成15秒音乐片段。

研究结果显示,Brain2Music生成的15秒音乐片段中,有一段内容与测试听到的原版音乐“Oops!...I Did It Again”基本相同。

这是个有趣又新奇的模型,它为音乐创作和个性化音乐推荐提供了新的可能性。但这项技术仍处于早期阶段,还需要进一步的研究和改进。它能否达到人类音乐创作者的水平还需时间的检验,期待谷歌将其运用到产品上,为音乐领域带来更多的创新和惊喜!

网友评论

热门IT产品
  1. ¥7599
    苹果iPhoneX 64GB
    ·
  2. ¥5799
    三星S9
    ·
  3. ¥4498
    vivo NEX旗舰版
    ·
  4. ¥4999
    OPPO Find X
    ·
  5. ¥1799
    努比亚Z18mini
    ·
  6. ¥1499
    OPPO A5
    ·
  7. ¥1999
    荣耀Play(4GB RAM)
    ·
  8. ¥1598
    vivo Y85
    ·
  9. ¥3499
    坚果R1(6GB RAM)
    ·
  10. ¥3599
    一加6(8GB RAM)
    ·