每个数据集由一个个样本组成,大多时候,它们遵循独立同分布。样本有时也叫作数据点或数据实例,通常每个样本由一组称为特征或协变量的属性组成。机器学习会根据这些属性进行预测,预测得到的称为标签或目标。
深度学习中,大多数流行的优化算法通常基于一种基本方法--梯度下降
监督学习擅长在“给定输入特征”的情况下预测标签。每个“特征-标签”对都称为一个样本。即使标签是未知的,样本也可以指代输入特征。我们的目标是生成一个模型,该模型能够将任何输入特征映射到标签(即预测)
监督学习在训练参数时,我们为模型提供了一个数据集,其中每个样本都有真实的标签。在给定一组特定的可用数据的情况下,估计未知事物的概率。
- 从已知大量数据样本中随机选取一个子集,为每个样本获取真实标签。有时,这些样本已有标签;有时,这些样本可能需要被人工标注。这些输入和相应标签一起构成了训练数据集。
- 选择有监督的学习算法,它将训练数据集作为输入,并输出一个“已完成学习的模型”
- 将之前没有见过的样本特征放到这个“已完成学习的模型”中,使用模型的输出作为相应标签的预测
回归问题是由输出决定的,此时的目标是生成一个模型,使它的预测值非常接近实际标签值。
分类问题希望模型能够预测样本属于哪个类别,其正式称为类。
分类器可能会输出图像是猫的概率为0.9,也就是分类器确定图像描绘的是一只猫的概率为90%。预测类别的概率传达了模型的不确定性。
分类问题的常见损失函数
人们宁愿错误地归入一个相关的类别,也不愿错误地归入一个不相关的类别,这通常被称为层次分类
学习预测不相互排斥的类别问题
有时,我们不仅仅希望输出一个类别或一个实值。在信息检索领域,我们希望对一组项目进行排序
目标是向特定用户进行“个性化”推荐
用属性注释文本序列;通常,目标是基于结构和语法假设对文本进行分解,以获得一些注释。
在语音识别中,输入序列是说话人的录音,输出序列是说话人所说内容的文本记录。
输入是文本,输出则是音频文件
在语音识别中,输入和输出的出现顺序基本相同。而在机器翻译中,颠倒输入和输出的顺序非常重要。机器翻译是输入和输出的数量以及相应序列的顺序大都不会相同。
数据中不含有“目标”的机器学习问题通常被称为“无监督学习”
①聚类问题;②主成分分析问题;③因果关系和概率图模型;
④生成对抗网络(提供一种合成数据的方法)
无论是监督学习还是无监督学习,我们都会预先获取大量数据,然后启动模型,不再与环境交互。所有的学习都是在算法与环境断开后进行的,被称为离线学习
离线学习的优点:我们可以孤立地进行模式识别,而不必分心于其他问题
缺点:能解决的问题相当有限
智能体在一系列的时间步骤上与环境交互。在每个特定时间点,智能体从环境接受一些观测,并且必须选择一个动作,然后通过某种机制(执行器)将其传输回环境,最终智能体从环境中获得奖励。此后,新一轮循环开始。
强化学习的目标是产生一个好的策略。强化学习智能体选择的“动作”受策略控制,即一个从环境观测映射到动作的功能。
- 一般来说,智能体只是得到一些奖励。此外,环境甚至可能不会告知是哪些动作导致了奖励
- 强化学习可能还必须处理部分可观测性问题。也就是说,当前的观测结果可能无法阐述有关当前状态的所有信息
- 智能体的动作会影响后续的观测,而奖励只与所选的动作相对应。环境可以是完整观测到的,也可以是部分观测到的
神经网络的核心是当今大多数网络中都可以找到的几个关键原则:
①线性和非线性处理单元的交替,通常称为层
②使用链式规则(反向传播)一次性调整网络中的全部参数
深度学习的一个关键优势是,它不仅取代了传统学习管道末端的浅层模型,还取代了劳动密集型的特征工程过程。此外,通过取代大部分特定领域的预处理,深度学习消除了以前分隔计算机视觉、语音识别、自然语言处理、医学信息学和其他应用领域的许多边界,为解决各种问题提供了一套统一的工具