机器学习01

  • 绪论:初识机器学习
  • 单变量线性回归
  • 线性代数回顾

绪论:初识机器学习

机器学习:

计算机从经验E中学习,解决一个任务T,进行某一性能度量P,通过P测定,在T上的表现因经验E而提高
——Tom Mitchell

在没有明确设置的情况下,使计算机具有学习能力的研究领域
——Arthur Samuel

机器学习:

  • 监督学习(Supervised Learning)

给算法一个数据集,其中包含正确答案,算法给出预测值
Eg:分类问题;回归问题

  • 无监督学习(Unsupervised Learning)

给算法一个数据集,其中包含正确答案,算法给出预测值
Eg:聚类问题(分类+标签);鸡尾酒会算法(声音分离)

单变量线性回归

NO.6

m = 训练样本的数量
x = 输入变量 / 特征
y = 输出变量 / 目标变量
(x,y) = 一个训练样本
(x(i),y(i)) = 第 i 个训练样本

监督工作:
机器学习01_第1张图片

NO.7

代价函数:
机器学习01_第2张图片
J ( θ 0 , θ 1 J(θ_0,θ_1 J(θ0,θ1):代价函数(cost function)/平方误差函数(square error function)

NO.9 梯度下降(Gradient Descent)

also called:‘Batch’ Gradient Descent (这个是全览整个数据集)
机器学习01_第3张图片
会有局部最优解
机器学习01_第4张图片
注:

  • := 赋值运算符
  • α Learning rate 学习率(控制速度)
  • for j=0 and j=1 simultaneously update θ 0 , θ 1 θ_0,θ_1 θ0,θ1 (同步更新)
    机器学习01_第5张图片
    注:顺序不可改,需要同步!

NO.11

机器学习01_第6张图片
注:

  • 若α过大,会跳过最低点,可能会导致发散
  • 由于各点斜率不同,离最低点越近,斜率的绝对值越小,所以变化越慢,无需改变α

NO.12

机器学习01_第7张图片
求偏导:
机器学习01_第8张图片
带回得:
机器学习01_第9张图片
although 梯度下降会有局部最优解,但是,实际上,我们用到的代价函数,总是凸函数(convex function),只有全局最优

线性代数回顾

大写字母:矩阵
小写字母:数字、标量、向量

矩阵相加:对应元素相加
矩阵乘除实数:每个数与之 × / ÷ ×/ ÷ ×/÷
矩阵相乘: A i j : A 1 的 行 ( i ) × A 2 的 列 ( j ) A_{ij}:A_1的行(i)×A_2的列(j) Aij:A1(i)×A2(j) [ 对应求和 ]
(m×n) × (n×1) -> (m×1)
A × B ≠ B × A A×B ≠ B×A A×B̸=B×A
A × B × C = ( A × B ) × C = A × ( B × C ) A×B×C = (A×B)×C = A×(B×C) A×B×C=(A×B)×C=A×(B×C)
A ⋅ A − 1 = A ⋅ A − 1 = I A·A^{-1} = A·A^{-1} = I AA1=AA1=I

你可能感兴趣的:(机器学习)