(资料图片仅供参考)
财联社6月13日讯(编辑 夏军雄)随着聊天机器人ChatGPT的兴起,人们开始尝试把生成式人工智能(AI)技术应用在包括音乐在内的多个领域。
Meta近日推出了名为MusicGen的开源AI模型,这是一种深度学习语言模型,可以根据文本提示生成音乐。
Facebook研究科学家Gabriel Synnaeve上周末在领英上公布了这一消息,并称其为简单可控的音乐生成模型。
据悉,由Synnaeve领导的团队使用了2万小时的授权音乐来训练MusicGen,其中包括来自内部数据集的1万首高质量音乐曲目,以及素材供应商Shutterstock和Pond5的曲目。
Meta已经在Github上以开源的形式发布了MusicGen的代码和模型,并允许商业使用。
Synnaeve表示:“我们公开发布代码和预训练模型,以供开放研究、可重复性和更广泛的音乐界研究这项技术。”
用户目前可在Hugging Face上体验MusicGen,除了文本提示外,还可搭配音频一同作为生成音乐的条件。在确定提示信息后,便可让MusicGen生成一段12秒的音频,不过需要等待一些时间,等待时长取决于在线的用户数量和用户所设置的提示信息。
经笔者实测,在要求MusicGen生成一段具备中国风元素的重金属音乐后,MusicGen大约花了大约3分钟时间(不包括排队等待时长)给出了结果。
MusicGen基于谷歌于2017年发布的Transformer模型,而谷歌今年1月也发布了名为MusicLM的音乐生成模型,并于5月向上月向所有用户开放。
除了谷歌的MusicLM外,目前较为常见的音乐模型还有Riffusion、Mousai和Noise2Music等。