吃瓜教程-Task1(第1、2章)

 1.学习记录

1.1 问题的类型:当预测的是离散值,如“好瓜”,“坏瓜”,称之为“分类”(classification);当预测的是连续值,如瓜的成熟情况0.51.0.84,称之为“回归”(regression)。当对数据进行潜在未知概念的分组时,称之为“聚类”(clustering),这能分析数据的内在规律。

1.2 “奥卡姆剃刀”(Occam's razor):若有多个假设与观察一致,则选择最简单的那个

1.3 没有免费的午餐定理(NFL定理):所有问题出现情况相同时,不同的学习算法,其期望性能相同

1.4 多数学习算法需要“调超参”

2.疑惑存留

2.1 式(1.1)-(1.3)的推导

3.自己的理解

3.1 在调整“超参”中,如果修改常用“超参”后,还是不能得到较优的效果,如何进一步提升学习效果?更换优化器、Loss函数、模型框架?

你可能感兴趣的:(吃瓜教程-Task1(第1、2章))