杂思|机器学习是不是就是把已有模型参数重新算,再做预测啊

比如回归方程模型(M1 = a+b*x),a是截距,b是斜率。对于一组数据来说,根据最小二乘法就能算出来最优斜率。
但有时候M1不能很好解释数据,可能不是因为模型,而是因为模型参数。
(Suppose M1 is found to be a poor approximation of the data. The poor data correspindence could simply be the result of the chocie of parameter values)

机器学习的思路,相当于把b当作自由参数,不用最小二乘算出适合这批数据的最佳参数值,而是通过损失函数(cost function)等迭代优化(optimization)找到最佳的参数值b,用这批数据60%-80%训练参数,用剩下的数据测试新的回归模型的预测效果。

感觉传统模型就是用各种fit index算固定值,比如M1用最小二乘法对这批数据算b,结果是固定的,模型的比较更像非好即坏;机器学习是用动态迭代算,不同数量的数据会训练出来不同的b,在模型理论无异议的情况下,模型可以不断优化。

你可能感兴趣的:(笔记,人工智能,算法)