【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】

机器学习相关规定

(1)机器学习 ≈ 找一个函数

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第1张图片

(2)这门课关注深度学习

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第2张图片

(3)输入可以是多种形式(我们将会用类神经网络制作这些函式):

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第3张图片

(4)1-5节用到的方法:Supervised Learning

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第4张图片

(6)第六节用到的方法:

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第5张图片

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第6张图片 

 

(5)第7节用到的方法:Supervised Learning显然是非常花费时间的,--> Self-supervised Learning(引入预训练)

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第7张图片

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第8张图片

Pre-trained Model --- Foundation Model(基本功)例子:bert模型

(6)第12节用到的方法(不知道怎么标注的时候):Reinforcement Learning

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第9张图片

(7)进阶课程:

1)第8节:Anomaly Detection (异常检测)

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第10张图片

2)第9节:Explainable AI(可解释性AI)

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第11张图片

 

3)第10节:Model Attack(模型攻击)

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第12张图片

 4)第11节:Domain Adaptation

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第13张图片

 5)第13节:Network Compression(模型的压缩)

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第14张图片

 

6)第14节:Life-long Learning

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第15张图片

 7)第15节:Meta Learning = Learn to Learn(学习如何学习)

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第16张图片

 【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第17张图片

 

(8)作业:

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第18张图片

 

第一节:机器学习基本概念简介

机器学习找函式分为三个步骤

1:写出带有未知参数的函式 y = b + wx(i)

2:定义一个Loss(也是一个函式)--- 设定b和w是好还是不好呢?

      Loss的计算是要从训练资料入手的,假设一对b和w,然后真实值(Label)与函式值做差取绝对值,就是Loss;

      三年来,每一天的误差,都可以算出来,用e(i)表示,再统统+起来【这里我们先选MAE】

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第19张图片

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第20张图片

      L越大,越不好

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第21张图片

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第22张图片

 

      画出等高线,偏红色的(b,w)不好,蓝色的(b,w)好,选出蓝色的一对,放在Model里面,我们的预测才会更精准

3、解最佳化的问题【这门课里面,用到的方法是Gradient Descent】

      

      Gradient Descent的方法解释:

      

      假设未知参数只有一个(w),先不看b;w取不同值,我们就会得到不同的Loss:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第23张图片

      怎么样找一个w,来让Loss最小呢:

      1)首先先随机找一个初始的点(w0);

      2)之后计算在w=w0的时候这个参数对loss的微分是多少,如果是负数(左高右低),增大w的值,如果是正数(左低右高),减小w的值

      ​​​​​​​【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第24张图片

      η是自己设定的,η大,update量就很大,反之,update量就很小;

      hyperparameter是自己设定的东西。

     3)接下来就反复进行刚刚的操作 计算w1,w2,...,wt

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第25张图片

      停止的原因:自己想停止了;或者 微分等于0

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第26张图片

      这个方法的弊端:我们可能找到的点,不是最佳点(不是真正的痛点)

      回过头来,计算两个参数的问题:

      ​​​​​​​【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第27张图片

      不断更新点:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第28张图片

机器学习三个步骤:

【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第29张图片

 【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第30张图片

      之后需要不断根据理解修改模型:

      ​​​​​​​【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第31张图片

      这样的模型叫作 Linear model 

      这种模型有弊端:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第32张图片

      因此我们需要一个更复杂、更有弹性的模型

      任务一:改写第一步:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第33张图片

      All Piecewise Linear Curves = constant + sum of a set of 线段

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第34张图片

      曲线也是ok的:

      ​​​​​​​【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第35张图片

      逼近蓝色的function:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第36张图片

      修改三个参数的效果如下:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第37张图片

      最终效果:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第38张图片

      最终对比:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第39张图片

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第40张图片

      ​​​​​​​【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第41张图片

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第42张图片

      最终如下:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第43张图片

       【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第44张图片

      符号注释:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第45张图片

      

      任务二:重新计算新的Loss

      方法跟之前一模一样:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第46张图片

      任务三:Optimization

      方法跟之前也一样,找到让L最小的θ

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第47张图片

      更新数据:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第48张图片

      通常实际操作下:会分割任务量:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第49张图片

      继续优化:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第50张图片

       【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第51张图片

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第52张图片

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第53张图片

      结果如下:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第54张图片

      

      这种训练模型的名字是 Neuron --- Neural Network --- Deep learning

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第55张图片

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第56张图片

      但是越深也不一定越好:

      【机器学习 - 李宏毅 - 学习笔记 - 学习地址:b站 - 持续更新】_第57张图片

      预测的话,要选3层的,因为它的效果更好

 

 

 

 

      

 

 

 

 

 

 

 

 

      

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

      

 

 

 

 

 

 

 

 

你可能感兴趣的:(学习,机器学习)