李宏毅老师-自编码器(Auto-encoder)Part2

慢慢来,会更好!
大家好,我是一个想研究又不会研究的研究生
陪伴大家一起学习成长!

我们接着来学习一下Feature Disentanglement

Feature Disentanglement:把一些本来纠缠在一起的东西解开

李宏毅老师-自编码器(Auto-encoder)Part2_第1张图片

这些经过Encoder的咨讯(比如文章的内容与字法等)全部纠缠在一起,我们并不知道这个向量的哪些维代表哪个咨讯

而Feature Disentanglement技术可以解决这个问题的
比如能不能前50维代表语音内容,后面的代表说话者的讯息

李宏毅老师-自编码器(Auto-encoder)Part2_第2张图片

那么,Feature Disentanglement有什么应用呢?
这个应用叫做Voice Conversion(声音转换)
在过去,A和B需要读同样的句子,才能把A的声音换为B的声音
而现在,应用Feature Disentanglement,A和B不需要读同样的句子,也能把A的声音换为B的声音

李宏毅老师-自编码器(Auto-encoder)Part2_第3张图片

那么,它是怎么做的呢?
把我说话的声音取出来再加上你的人脸,就可以转为你说话的那段声音了

李宏毅老师-自编码器(Auto-encoder)Part2_第4张图片

以下是真实的例子和实验数据
很好玩

李宏毅老师-自编码器(Auto-encoder)Part2_第5张图片

下面,我们再了解一下Discrete Latent Representation

过去,我们vector都是表示real numbers
现在,我们可不可以重新做一个vector,比如1代表男,0代表女等

李宏毅老师-自编码器(Auto-encoder)Part2_第6张图片
李宏毅老师-自编码器(Auto-encoder)Part2_第7张图片

还有更加疯狂的想法,比如vector一定得是向量吗,可以是文字吗?

李宏毅老师-自编码器(Auto-encoder)Part2_第8张图片

可能是不理想的,因为这两个NN之间会产生一些人看不懂暗号,那该怎么办呢?
所以还要加上Discriminator,这就类似CycleGAN的概念了

李宏毅老师-自编码器(Auto-encoder)Part2_第9张图片

以下是真正NN做的结果

李宏毅老师-自编码器(Auto-encoder)Part2_第10张图片

但有时候会有错误的

李宏毅老师-自编码器(Auto-encoder)Part2_第11张图片

还有更狂的想法
Tree as Embedding

李宏毅老师-自编码器(Auto-encoder)Part2_第12张图片

接下来呢,还有更多的应用
就不详细描述啦

李宏毅老师-自编码器(Auto-encoder)Part2_第13张图片
李宏毅老师-自编码器(Auto-encoder)Part2_第14张图片

接下来,就是作业中涉及到的技术
判断输入的与训练集中的数据相似度

李宏毅老师-自编码器(Auto-encoder)Part2_第15张图片

那么,正常与异常要根据具体情况而定

李宏毅老师-自编码器(Auto-encoder)Part2_第16张图片

比如说我们要做一个诈骗侦探
而我们不容易收集到异常的资料,我们往往假设有一大堆正常的资料,只有一个类别的资料
所以这不是一个简单的Binary Classification
这时候Auto-encoder就配上用场了

李宏毅老师-自编码器(Auto-encoder)Part2_第17张图片
李宏毅老师-自编码器(Auto-encoder)Part2_第18张图片

你可能感兴趣的:(深度学习,自然语言处理,机器学习,人工智能)