【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)

文章目录

  • 参考链接
  • 7-5 自编码器(上)
  • 目录
    • 自编码器是什么(不用标注的训练,但要发明一个任务可以去训练)
    • Auto-encoder的流程(Encoder将输入向量压缩为更低维度的向量,但是携带的信息会更多)
    • 为什么Auto-encoder有效?(图片看似有3x3种可能,但是变化可能就几种,所以可以用Encoder进行压缩)
    • Auto-encoder is not a new idea(15年前就有了...)
    • De-noising Auto-encoder(加点噪声,回顾BERT?)
  • 7-6 自编码器(下)
  • 目录
    • Feature Disentanglement
      • Encoder输出的向量包含了输入的所有信息,有没有可能知道哪些维度是内容,哪些维度是声音?(disentagle 可以做到,具体可以参考论文)
      • 应用:变声(把内容和声音分开,再拼接A的内容和B的声音就可以做到了)
    • Discrete Latent Representation
      • 强迫Embeding输出的值是离散的,例如one-hot,也许就能做到无监督分类效果?
      • Embedding可不可以不是向量呢?比如序列?(会有问题啦,比如只有Encoder和Decoder懂的暗号,所以还要加上Discriminator,这就类似CycleGAN的概念了,互通)
      • Tree as Embbeding(更狂的拿Tree作为Embbeding,说明Embbeding的形式多种多样,自己决定!)
    • 更多应用
      • Generator(把Decoder单独拿出来就作为Generator了)
      • Compression(Embedding就可以看作输入经过Encoder压缩后的向量)
      • Anomaly Detection(也是作业8,hw8,好好听)
        • 相似的定义根据不同情况下定义,见仁见智
        • 异常检测的应用:(这里李宏毅老师提出了一个非常好的问题,能不能用Binary Classfication来做?存在的问题是:这种情况下你只能收集到正常的资料,只有one class不好做分类,这个时候auto-encoder就派上用场了!)
        • 举例说明:(同时也是作业要做的事情啦)如果重建的loss很大,说明在训练资料没有看过,此时就是输入异常了
        • 更多关于异常检测的介绍(并不只有auto-encoder可以来做这件事)

参考链接

视频地址

21年课堂笔记

7-5 自编码器(上)

目录

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第1张图片

自编码器是什么(不用标注的训练,但要发明一个任务可以去训练)

首先你有大量的没有标注的资料,用这些没有标注的资料,你可以去训练一个模型,你必须发明一些不需要标注资料的任务,比如说做填空题,比如说预测下一个 Token

这个不用标注资料的学习叫做,Self-Supervised Learning,或者是也有人叫 Pre-Training,那用这些不用标注资料的任务,学完一个模型以后,它本身没有什麽用,BERT 只能做填空题,GPT 只能够把一句话补完,但是你可以把它用在其他下游的任务裡面
【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第2张图片

Auto-encoder的流程(Encoder将输入向量压缩为更低维度的向量,但是携带的信息会更多)

假设你有非常大量的图片,在 Auto-Encoder 裡面你有两个 Network,一个叫做 Encoder,一个叫做 Decoder,他们就是两个 Network

  • Encoder 把一张图片读进来,它把这张图片变成一个向量,就 Encoder 它可能是很多层的 CNN,把一张图片读进来,它的输出是一个向量,接下来这个向量会变成 Decoder 的输入
  • Decoder 会产生一张图片,所以 Decoder 的 Network 的架构,可能会像是 GAN 裡面的 Generator,它是 11 个向量输出一张图片

训练的目标是希望,Encoder 的输入跟 Decoder 的输出,越接近越好

假设你把图片看作是一个很长的向量的话,我们就希望这个向量跟 Decoder 的输出,这个向量,这两个向量他们的距离越接近越好,也有人把这件事情叫做 Reconstruction,叫做重建

因为我们就是把一张图片,压缩成一个向量,接下来 Decoder 要根据这个向量,重建原来的图片,那我们希望原输入的结果,跟重建后的结果越接近越好

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第3张图片

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第4张图片

为什么Auto-encoder有效?(图片看似有3x3种可能,但是变化可能就几种,所以可以用Encoder进行压缩)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第5张图片

Auto-encoder is not a new idea(15年前就有了…)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第6张图片

De-noising Auto-encoder(加点噪声,回顾BERT?)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第7张图片
【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第8张图片

7-6 自编码器(下)

文章目录

  • 参考链接
  • 7-5 自编码器(上)
  • 目录
    • 自编码器是什么(不用标注的训练,但要发明一个任务可以去训练)
    • Auto-encoder的流程(Encoder将输入向量压缩为更低维度的向量,但是携带的信息会更多)
    • 为什么Auto-encoder有效?(图片看似有3x3种可能,但是变化可能就几种,所以可以用Encoder进行压缩)
    • Auto-encoder is not a new idea(15年前就有了...)
    • De-noising Auto-encoder(加点噪声,回顾BERT?)
  • 7-6 自编码器(下)
  • 目录
    • Feature Disentanglement
      • Encoder输出的向量包含了输入的所有信息,有没有可能知道哪些维度是内容,哪些维度是声音?(disentagle 可以做到,具体可以参考论文)
      • 应用:变声(把内容和声音分开,再拼接A的内容和B的声音就可以做到了)
    • Discrete Latent Representation
      • 强迫Embeding输出的值是离散的,例如one-hot,也许就能做到无监督分类效果?
      • Embedding可不可以不是向量呢?比如序列?(会有问题啦,比如只有Encoder和Decoder懂的暗号,所以还要加上Discriminator,这就类似CycleGAN的概念了,互通)
      • Tree as Embbeding(更狂的拿Tree作为Embbeding,说明Embbeding的形式多种多样,自己决定!)
    • 更多应用
      • Generator(把Decoder单独拿出来就作为Generator了)
      • Compression(Embedding就可以看作输入经过Encoder压缩后的向量)
      • Anomaly Detection(也是作业8,hw8,好好听)
        • 相似的定义根据不同情况下定义,见仁见智
        • 异常检测的应用:(这里李宏毅老师提出了一个非常好的问题,能不能用Binary Classfication来做?存在的问题是:这种情况下你只能收集到正常的资料,只有one class不好做分类,这个时候auto-encoder就派上用场了!)
        • 举例说明:(同时也是作业要做的事情啦)如果重建的loss很大,说明在训练资料没有看过,此时就是输入异常了
        • 更多关于异常检测的介绍(并不只有auto-encoder可以来做这件事)

目录

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第9张图片

Feature Disentanglement

Encoder输出的向量包含了输入的所有信息,有没有可能知道哪些维度是内容,哪些维度是声音?(disentagle 可以做到,具体可以参考论文)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第10张图片

应用:变声(把内容和声音分开,再拼接A的内容和B的声音就可以做到了)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第11张图片

Discrete Latent Representation

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第12张图片

强迫Embeding输出的值是离散的,例如one-hot,也许就能做到无监督分类效果?

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第13张图片

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第14张图片

Embedding可不可以不是向量呢?比如序列?(会有问题啦,比如只有Encoder和Decoder懂的暗号,所以还要加上Discriminator,这就类似CycleGAN的概念了,互通)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第15张图片
【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第16张图片
实作上的效果:
【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第17张图片
机器犯错例子:
【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第18张图片

Tree as Embbeding(更狂的拿Tree作为Embbeding,说明Embbeding的形式多种多样,自己决定!)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第19张图片

文章目录

  • 参考链接
  • 7-5 自编码器(上)
  • 目录
    • 自编码器是什么(不用标注的训练,但要发明一个任务可以去训练)
    • Auto-encoder的流程(Encoder将输入向量压缩为更低维度的向量,但是携带的信息会更多)
    • 为什么Auto-encoder有效?(图片看似有3x3种可能,但是变化可能就几种,所以可以用Encoder进行压缩)
    • Auto-encoder is not a new idea(15年前就有了...)
    • De-noising Auto-encoder(加点噪声,回顾BERT?)
  • 7-6 自编码器(下)
  • 目录
    • Feature Disentanglement
      • Encoder输出的向量包含了输入的所有信息,有没有可能知道哪些维度是内容,哪些维度是声音?(disentagle 可以做到,具体可以参考论文)
      • 应用:变声(把内容和声音分开,再拼接A的内容和B的声音就可以做到了)
    • Discrete Latent Representation
      • 强迫Embeding输出的值是离散的,例如one-hot,也许就能做到无监督分类效果?
      • Embedding可不可以不是向量呢?比如序列?(会有问题啦,比如只有Encoder和Decoder懂的暗号,所以还要加上Discriminator,这就类似CycleGAN的概念了,互通)
      • Tree as Embbeding(更狂的拿Tree作为Embbeding,说明Embbeding的形式多种多样,自己决定!)
    • 更多应用
      • Generator(把Decoder单独拿出来就作为Generator了)
      • Compression(Embedding就可以看作输入经过Encoder压缩后的向量)
      • Anomaly Detection(也是作业8,hw8,好好听)
        • 相似的定义根据不同情况下定义,见仁见智
        • 异常检测的应用:(这里李宏毅老师提出了一个非常好的问题,能不能用Binary Classfication来做?存在的问题是:这种情况下你只能收集到正常的资料,只有one class不好做分类,这个时候auto-encoder就派上用场了!)
        • 举例说明:(同时也是作业要做的事情啦)如果重建的loss很大,说明在训练资料没有看过,此时就是输入异常了
        • 更多关于异常检测的介绍(并不只有auto-encoder可以来做这件事)

更多应用

Generator(把Decoder单独拿出来就作为Generator了)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第20张图片

Compression(Embedding就可以看作输入经过Encoder压缩后的向量)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第21张图片

Anomaly Detection(也是作业8,hw8,好好听)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第22张图片

相似的定义根据不同情况下定义,见仁见智

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第23张图片

异常检测的应用:(这里李宏毅老师提出了一个非常好的问题,能不能用Binary Classfication来做?存在的问题是:这种情况下你只能收集到正常的资料,只有one class不好做分类,这个时候auto-encoder就派上用场了!)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第24张图片

举例说明:(同时也是作业要做的事情啦)如果重建的loss很大,说明在训练资料没有看过,此时就是输入异常了

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第25张图片

更多关于异常检测的介绍(并不只有auto-encoder可以来做这件事)

【李宏毅2021机器学习深度学习】7-5,7-6 自编码器(Auto-encoder)_第26张图片

你可能感兴趣的:(深度学习_李宏毅,深度学习,机器学习,人工智能)