机器学习和线性回归、softmax回归

 监督学习

        监督学习(supervised learning)擅⻓在“给定输⼊特征”的情况下预测标签。每个“特征-标签”对都称为一个样本(example)。我们的目标是生成一个模型,能够将任何输⼊特征映射到标签(即预测)。

  •   回归——平方误差损失函数回归(regression)是最简单的监督学习任务之一。
  • 分类——交叉熵样本属于“哪一类”的问题称为分类问题

       回归是训练一个回归函数来输出一个数值;分类是训练一个分类器来输出预测的类别

标注问题

       学习预测不相互排斥的类别的问题称为多标签分类(multi-label classification)一个样本(一个图片或者一个候选框)中含有多个物体,标注的label也是多个的,多个类间并不是互斥的,多选多比如:多目标检测、短视频分类。

无监督学习

        数据中不含有标签的机器学习问题

 

        到目前为止,不管是监督学习还是无监督学习,我们都会预先获取大量数据,然后启动模型,不再与环境交互。这⾥所有学习都是在算法与环境断开后进行的,被称为离线学习(offline learning)。

        优点是,我们可以孤⽴地进行模式识别,而不必分心于其他问题。

         缺点是,解决的问题相当有限。

强化学习

        智能体在一系列的时间步骤上与环境交互。在每个特定时间点,智能体从环境接收一些观察,并且必须选择一个动作,然后通过某种机制(有时称为执行器)将其传输回环境,最后智能体从环境中获得奖励。此后新一轮循环开始,智能体接收后续观察,并选择后续操作,依此类推。

  1. 深度学习成功案例
  • 图像分类
  • 目标检测和分割
  • 人脸合成
  • 机器翻译
  • 图像描述
  • 自然语言文本合成

线性回归

      线性回归的基本思想是通过拟合最佳直线(也就是线性方程),来描述自变量和因变量之间的关系这条直线被称为回归线。

  1.  损失函数

     衡量预估质量
      损失函数能够量化目标的实际值与预测值之间的差距。

      例如房屋售价和估价。
      回归问题最常用的损失函数是平方损失

Softmax回归

      是一个多类分类模型使用Softmax操作得到每个类的预测置信度

 回归和分类

       回归估计一个连续值

       分类预测一个离散类别

独热编码

• 独热编码:对类别进行一位有效编码
类别对应的分量设置为1,其他所有分量设置为0

例如:

猫:(1,0,0)
狗:(0,1,0)
鸡:(0,0,1)
 

 

 

 

 


 

 

 

 

你可能感兴趣的:(人工智能,线性回归)