通关手册:祝我通关成功!!!
优化做的不好,比如gradient descent这种方法有local minima的问题
那究竟是哪个问题呢?
怎样知道你的optimazation做的够不够好呢?
training data的loss小,testing data的loss大,才叫做overfitting
为什么会出现这样的状况呢?
解决方案:
如何制造限制?
但是限制也不要太多
这显得有些矛盾。。
model bias → overfitting
那是不是可以选择一个中庸的Model呢?
如果你直接从public testing set 中选出一个最优秀的就万事大吉了呢~
This explains why machine usually beats human on benchmark corpora.
这就是为什么我们要把 testing set 分开呀~
实操直接取validation最小的就好啦。
how to split training set?
哈哈哈好可爱呀!!!
有人说它也是一种overfitting,但其实mismacth和overfitting的原因其实不同,overfitt可以用更多的训练资料来解决,但是mismatch ——
如何判断是不是dismatch,需要你对训练资料和测试资料的产生有