对标谷歌MusicLM!Meta发布开源音乐模型MusicGen

最新信息

对标谷歌MusicLM!Meta发布开源音乐模型MusicGen
2023-06-13 19:04:00


K图 GOOGL_0


K图 GOOG_0


K图 META_0
  随着聊天机器人ChatGPT的兴起,人们开始尝试把生成式人工智能(AI)技术应用在包括音乐在内的多个领域。

  Meta近日推出了名为MusicGen的开源AI模型,这是一种深度学习语言模型,可以根据文本提示生成音乐。
  Facebook研究科学家Gabriel Synnaeve上周末在领英上公布了这一消息,并称其为简单可控的音乐生成模型。
  据悉,由Synnaeve领导的团队使用了2万小时的授权音乐来训练MusicGen,其中包括来自内部数据集的1万首高质量音乐曲目,以及素材供应商Shutterstock和Pond5的曲目。
  Meta已经在Github上以开源的形式发布了MusicGen的代码和模型,并允许商业使用。
  Synnaeve表示:“我们公开发布代码和预训练模型,以供开放研究、可重复性和更广泛的音乐界研究这项技术。”
  用户目前可在Hugging Face上体验MusicGen,除了文本提示外,还可搭配音频一同作为生成音乐的条件。在确定提示信息后,便可让MusicGen生成一段12秒的音频,不过需要等待一些时间,等待时长取决于在线的用户数量和用户所设置的提示信息。
  经笔者实测,在要求MusicGen生成一段具备中国风元素的重金属音乐后,MusicGen大约花了大约3分钟时间(不包括排队等待时长)给出了结果。
  MusicGen基于谷歌于2017年发布的Transformer模型,而谷歌今年1月也发布了名为MusicLM的音乐生成模型,并于5月向上月向所有用户开放。
  除了谷歌的MusicLM外,目前较为常见的音乐模型还有Riffusion、Mousai和Noise2Music等。
(文章来源:财联社)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

对标谷歌MusicLM!Meta发布开源音乐模型MusicGen

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml