通关手册 | 祝我通关成功!!!

Framework of ML

    • Loss on training data
      • 1. large
        • 1.1 Model Bias
        • 1.2 Optimization
      • 2. small
      • Loss on testing data
        • 2.1 large
          • 2.1.1 overfitting
          • 2.1.2 mismatch
        • 2.2 small

通关手册:祝我通关成功!!!

通关手册 | 祝我通关成功!!!_第1张图片

通关手册 | 祝我通关成功!!!_第2张图片

Loss on training data

1. large

1.1 Model Bias

通关手册 | 祝我通关成功!!!_第3张图片

1.2 Optimization

优化做的不好,比如gradient descent这种方法有local minima的问题

通关手册 | 祝我通关成功!!!_第4张图片

那究竟是哪个问题呢?

通关手册 | 祝我通关成功!!!_第5张图片

  • 显然56层的弹性更大,后36层copy identity可以轻而易举的做到,所以不是model bias的问题

怎样知道你的optimazation做的够不够好呢?

image-20230106145724491

  • 甚至是linear model或者support vector model

通关手册 | 祝我通关成功!!!_第6张图片

2. small

Loss on testing data

2.1 large

2.1.1 overfitting

training data的loss小,testing data的loss大,才叫做overfitting

为什么会出现这样的状况呢?

通关手册 | 祝我通关成功!!!_第7张图片

通关手册 | 祝我通关成功!!!_第8张图片

解决方案:

  1. 合理的augmentation

通关手册 | 祝我通关成功!!!_第9张图片

  1. 减弱flexible

通关手册 | 祝我通关成功!!!_第10张图片

如何制造限制?

通关手册 | 祝我通关成功!!!_第11张图片

  • CNN:比较没有弹性的model,根据影像的特性来限制模型的弹性。

    通关手册 | 祝我通关成功!!!_第12张图片

但是限制也不要太多

通关手册 | 祝我通关成功!!!_第13张图片

这显得有些矛盾。。

通关手册 | 祝我通关成功!!!_第14张图片

model bias → overfitting

那是不是可以选择一个中庸的Model呢?

如果你直接从public testing set 中选出一个最优秀的就万事大吉了呢~

通关手册 | 祝我通关成功!!!_第15张图片

This explains why machine usually beats human on benchmark corpora.

这就是为什么我们要把 testing set 分开呀~

通关手册 | 祝我通关成功!!!_第16张图片

实操直接取validation最小的就好啦。

how to split training set?

通关手册 | 祝我通关成功!!!_第17张图片

2.1.2 mismatch

哈哈哈好可爱呀!!!

通关手册 | 祝我通关成功!!!_第18张图片

有人说它也是一种overfitting,但其实mismacth和overfitting的原因其实不同,overfitt可以用更多的训练资料来解决,但是mismatch ——

通关手册 | 祝我通关成功!!!_第19张图片

如何判断是不是dismatch,需要你对训练资料和测试资料的产生有

2.2 small

你可能感兴趣的:(ML,人工智能,深度学习,python)