昨天就被这个消息轰炸了,google deepmind联合YouTube发布了一个AI音乐创作的模型,去官网看了下,演示视频里确实质量一个大NB,现在我整体大概介绍一下google是咋说的哈:
Google发布的题目叫《改变音乐创作的未来》,能看出对自己技术的自信。
由于音乐很复杂,有各种复杂多样的歌词、旋律、节奏和音色,AI创作音乐确实特别有挑战,当然直到俺们这个技术的出现。
今天我们很骄傲的宣布,我们和Youtube联合发布Lyria模型,一个NB的AI音乐创作模型,而且还贴心的附带两个AI工具让你的创作飞起来哦。
一个是 Dream Track,在youtube短视频里的一次尝试,它通过音乐创作能把各种艺术家、创作者还有粉丝们深深的连接起来。
一个是Music AI tools,一坨工具,能让搞音乐的用起来帮他们加快点进度。
为了整这些玩意儿,我们把很多技术专家还有世界知名的艺术家作曲家都薅来帮我们各种出主意,不信还搞不出来未来音乐是咋创作的。一个介绍视频里说我们整这些不是要替代音乐家们,而是要帮助他们弄得更快更高更强。
下面正文开始:
介绍一下Lyria模型哈,音乐包含了巨量的信息,每秒都有巨多的音符、和声、节奏还有各种音色,想用AI创作一大段音乐,我真是太难了。但是呢我是谁,我是google deepmind,我整的Lyria模型就很擅长创作高质量的音乐,可以有各种乐器和人声,能做很多任务,还能给用户提供细致入微的控制,来输出想要的风格和表演。
我们用Lyria弄了一个实验工具,叫Dream Track,是为了让Youtube短视频有更NB的配乐。现在实验中,有少量的创作者可以用Dream Track来生成独特的音乐,可以选择很多艺术家风格,比如Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Sia, T-Pain, Troye Sivan, and Papoose。
用户呢只需要输入一个主题,然后选一个艺术家风格,就能给他们的短视频生成30秒的配乐,Lyria模型可以同时生成歌词、伴奏音轨还有AI唱的人声。这是个例子:
视频插不上来啊,csdn肿么回事,只能给个链接了:
疯了!哼一段旋律变交响乐,Google发布AI音乐模型Lyria_哔哩哔哩_bilibili
我们一直探索肿么让创作工程弄的更好,于是和各种音乐人一起研究并设计一款AI工具。想象一下,你哼一个旋律然后AI就创作出来一个小号或萨克斯吹的一模一样的旋律,弹几个和弦进行就会创作出人声合唱团来唱的效果。 官网都有视频演示,就不说了。
也就是说,我们这AI工具,用户可以从头开始创建一段音乐或者乐器演奏,AI工具可以把它们转换为另一种乐器或者风格,还能创建整个乐器伴奏,可流弊了。这是我们的操作界面:
给一个视频例子吧,哼一段旋律,直接甩出一套交响乐:
还是上面的链接:
疯了!哼一段旋律变交响乐,Google发布AI音乐模型Lyria_哔哩哔哩_bilibili
最后呢,你是不是担忧这版权啥的,嘿嘿,我们早就想到了! SynthID,就是用我们这厉害的技术,会给AI生成的音乐加上水印哦,这个水印你是听不出来的,但是转换为频谱就能检测到水印啦,厉害不? 哦,你说我认为的编辑修改啊,没事儿,我们这技术抗干扰很强,就算你多次的修改,比如添加噪声,MP3压缩,加速减速啥的,我们这SynthID都能检测到水印! 哈哈,我们怎么都能知道这段音乐是不是Lyria模型生成的。
反正,我们肯定会考虑AI创作音乐的各种风险的,会和各种技术人员还有音乐家们一起来弄,确保技术是朝有益的方向发展。未来呢,我们这技术肯定能改变音乐创作方式和使用,我们很鸡冻,这会掀起又一番创作高潮。 我们已经迫不及待的想看看下一步能整些什么花儿来。
呃,介绍就完了,也没说具体的使用教程,我去研究研究试试,有啥体验了,我在这继续说~