《机器学习实战:基于Scikit-Learn、Keras和TensorFlow(第2版)》学习笔记

文章目录

      • 书籍信息
      • 技术和工具
        • Scikit-Learn
        • TensorFlow
        • Keras
        • Jupyter notebook
      • 资源
        • 书籍配套资料
        • 流行的开放数据存储库
        • 元门户站点(它们会列出开放的数据存储库)
        • 其他一些列出许多流行的开放数据存储库的页面
        • 其他
      • 机器学习项目清单
        • 主要有8个步骤
        • 框出问题并看整体
        • 获取数据
        • 研究数据
        • 准备数据
        • 列出有前途的模型
        • 微调系统
        • 演示你的解决方案
        • 启动
      • 机器学习概览
        • 什么是机器学习
        • 为什么使用机器学习
        • 机器学习的应用示例
        • 机器学习系统的类型
        • 机器学习的主要挑战
        • 测试与验证
      • 端到端的机器学习项目
        • 观察大局
        • 获取数据
        • 从数据探索和可视化中获得洞见
        • 机器学习算法的数据准备
        • 选择和训练模型
        • 微调模型
        • 启动、监控和维护你的系统
      • 分类
        • 训练二元分类器
        • 性能测量
        • 多类分类器
        • 误差分析
        • 多标签分类
        • 多输出分类
      • 训练模型
        • 线性回归
        • 梯度下降
        • 多项式回归
        • 学习曲线
        • 正则化线性模型
        • 逻辑回归
      • 支持向量机
        • 线性SVM分类
        • 非线性SVM分类
        • SVM回归
        • 工作原理
      • 决策树
        • 训练和可视化决策树
        • 做出预测
        • 估计类概率
        • CART训练算法
        • 计算复杂度
        • 基尼不纯度或熵
        • 正则化超参数
        • 回归
        • 不稳定性
      • 集成学习和随机森林
        • 投票分类器
        • bagging和pasting
        • 随机补丁和随机子空间
        • 随机森林
        • 提升法
        • 堆叠法
      • 降维
        • 维度的诅咒
        • 降维的主要方法
        • 主成分分析 PCA
        • 内核PCA
        • 局部线性嵌入 LLE
        • 其他降维技术
      • 无监督学习技术
        • 聚类
        • 高斯混合模型
      • Keras人工神经网络简介
        • 从生物神经元到人工神经元
        • 使用Keras实现MLP
        • 微调神经网络超参数
      • 训练深度神经网络
        • 梯度消失与梯度爆炸问题
        • 重用预训练层
        • 更快的优化器
        • 通过正则化避免过拟合
        • 总结和实用指南
          • 默认的DNN配置
          • 用于自归一化网络的DNN配置
      • 使用TensorFlow自定义模型和训练
        • TensorFlow快速浏览
        • 像NumPy一样使用TensorFlow
        • 定制模型和训练算法
        • TensorFlow函数和图
      • 使用TensorFlow加载和预处理数据
        • 数据API
        • TFRecord格式
        • 预处理输入特征
        • TF Transform
      • 使用卷积神经网络的深度计算机视觉
        • 视觉皮层的架构
        • 卷积层
        • 池化层
        • CNN架构
        • 使用Keras实现ResNet-34 CNN
        • 使用Keras的预训练模型
        • 迁移学习的预训练模型
        • 分类和定位
        • 物体检测
        • 语义分割
      • 使用RNN和CNN处理序列
        • 循环神经元和层
        • 训练RNN
        • 预测时间序列
        • 处理长序列
      • 使用RNN和注意力机制进行自然语言处理
        • 使用字符RNN生成莎士比亚文本
        • 情感分析
        • 神经机器翻译的编码器-解码器网络
        • 注意力机制
        • 最近语言模型的创新
      • 使用自动编码器和GAN的表征学习和生成 学习
        • 有效的数据表征
        • 使用不完整的线性自动编码器执行PCA
        • 堆叠式自动编码器
        • 卷积自动编码器
        • 循环自动编码器
        • 去噪自动编码器
        • 稀疏自动编码器
        • 变分自动编码器
        • 生成式对抗网络
      • 强化学习
        • 学习优化奖励
        • 策略搜索
        • OpenAI Gym介绍
        • 神经网络策略
        • 评估动作:信用分配问题
        • 策略梯度
        • 马尔可夫决策过程
        • 时序差分学习
        • Q学习
        • 实现深度Q学习
        • 深度Q学习的变体
        • TF-Agents库
        • 一些流行的RL算法概述
      • 大规模训练和部署TensorFlow模型
        • 为TensorFlow模型提供服务
        • 将模型部署到移动端或嵌入式设备
        • 使用GPU加速计算
        • 跨多个设备的训练模型

书籍信息

书名:机器学习实战:基于Scikit-Learn、Keras和TensorFlow(第2版)
作者:奥雷利安·杰龙
资料:https://download.csdn.net/download/zhiyuan411/87008603,密码:book

技术和工具

Scikit-Learn

Scikit-Learn 非常易于使用,它有效地实现了许多机器学习算法,因此成为学习机器学习的重要切入点。Scikit-Learn由David Cournapeau于2007年创建,现在由法国计算机科学和自动化研究所的一个研究小组领导。

TensorFlow

TensorFlow 是用于分布式数值计算的更复杂的库。通过将计算分布在数百个GPU(图形处理单元)服务器上,它可以有效地训练和运行大型神经网络。TensorFlow(TF)是由Google创建的,并支持许多大型机器学习应用程序。它于2015年11月开源,2.0版本于2019年11月发布。

Keras

Keras 是高层深度学习API,使训练和运行神经网络变得非常简单。它可以在TensorFlow、Theano或微软Cognitive Toolkit(以前称为CNTK)之上运行。TensorFlow附带了该API自己的实现,称为 tf.keras,支持某些高级TensorFlow功能(例如有效加载数据的能力)。

Jupyter notebook

Jupyter Notebook 是基于网页的用于交互计算的应用程序。其可被应用于全过程计算:开发、文档编写、运行代码和展示结果。

安装和使用参考:https://zhuanlan.zhihu.com/p/33105153

资源

书籍配套资料

  1. 在 https://github.com/ageron/handson-ml2 上在线获得的代码示例。
  2. O’Reilly的在线学习平台允许你按需访问现场培训课程、深入的学习路径、交互式编程环境,以及O’Reilly和200多家其他出版商提供的大量文本和视频资源。访问: http://oreilly.com

流行的开放数据存储库

  1. UC Irvine Machine Learning Repository(http://archive.ics.uci.edu/ml/)
  2. Kaggle datasets(https://www.kaggle.com/datasets)
  3. Amazon’s AWS datasets(http://aws.amazon.com/fr/datasets/)

元门户站点(它们会列出开放的数据存储库)

  1. Data Portals(http://dataportals.org/)
  2. OpenDataMonitor(http://opendatamonitor.eu/)
  3. Quandl(http://quandl.com/)

其他一些列出许多流行的开放数据存储库的页面

  1. Wikipedia’s list of Machine Learning datasets(https://goo.gl/SJHN2k)
  2. Quora.com(http://goo.gl/zDR78y)
  3. The datasets subreddit(https://www.reddit.com/r/datasets)

其他

  1. http://kaggle.com/ 的竞赛网站
  2. TensorFlow数据集项目:https://homl.info/tfds

机器学习项目清单

主要有8个步骤

  1. 框出问题并看整体。
  2. 获取数据。
  3. 研究数据以获得深刻见解。
  4. 准备数据以便更好地将潜在的数据模式提供给机器学习算法。
  5. 探索许多不同的模型,并列出最佳模型。
  6. 微调你的模型,并将它们组合成一个很好的解决方案。
  7. 演示你的解决方案。
  8. 启动、监视和维护你的系统。

框出问题并看整体

  1. 用业务术语定义目标。
  2. 你的解决方案将如何使用?
  3. 当前有什么解决方案/解决方法(如果有)?
  4. 你应该如何阐述这个问题(有监督/无监督,在线/离线等)?
  5. 应该如何衡量性能?
  6. 性能指标是否符合业务目标?
  7. 达到业务目标所需的最低性能是多少?
  8. 有没有一些相似的问题?你可以重用经验或工具吗?
  9. 有没有相关有经验的人?
  10. 你会如何手动解决问题?
  11. 列出你(或其他人)到目前为止所做的假设。
  12. 如果可能,请验证假设。

获取数据

  1. 列出所需的数据以及你需要多少数据。
  2. 查找并记录可从何处获取该数据。
  3. 检查将占用多少空间。
  4. 检查法律义务,并在必要时获得授权。
  5. 获取访问授权。
  6. 创建一个工作空间(具有足够的存储空间)。
  7. 获取数据。
  8. 将数据转换为可以轻松操作的格式(无须更改数据本身)。
  9. 确保敏感信息被删除或受保护(例如匿名)。
  10. 检查数据的大小和类型(时间序列、样本、地理等)。
  11. 抽样一个测试集,将其放在一边,再也不要看它(无数据监听!)。
  12. 注意:尽可能地自动化,以便你可以轻松地获取新数据。

研究数据

  1. 创建数据副本来进行研究(必要时将其采样到可以管理的大小)。
  2. 创建 Jupyter notebook 以记录你的数据研究。
  3. 研究每个属性及其特征:名称、类型(分类、整数/浮点型、有界/无界、文本、结构化等)、缺失值的百分比、噪声和噪声类型(随机、异常值、舍入误差等)、任务的实用性、分布类型(高斯分布、均匀分布、对数分布等)
  4. 对于有监督学习任务,请确定目标属性。
  5. 可视化数据。
  6. 研究属性之间的相关性。
  7. 研究如何手动解决问题。
  8. 确定你可能希望使用的转变。
  9. 确定有用的额外数据。
  10. 记录所学的知识。
  11. 注意:请尝试从现场专家那里获取有关这些步骤的见解。

准备数据

  1. 数据清理:修复或删除异常值(可选)、填写缺失值(例如,零、均值、中位数)或删除其行(或列)。
  2. 特征选择(可选):删除没有为任务提供有用信息的属性。
  3. 特征工程(如果适用):离散化连续特征、分解特征(例如分类、日期/时间等)、添加有希望的特征转换(例如log(x)、sqrt(x)、x2等)、将特征聚合为有希望的新特征。
  4. 特征缩放:标准化或归一化特征。
  5. 注意:在数据副本上工作(保持原始数据集完整);为你应用的所有数据转换编写函数(原因有5个:下次获取新的数据集时,你可以轻松准备数据;可以在未来的项目中应用这些转换;清理并准备测试集;解决方案上线后清理并准备新的数据实例;使你可以轻松地将准备选择视为超参数)

列出有前途的模型

  1. 使用标准参数训练来自不同类别(例如线性、朴素贝叶斯、SVM、随机森林、神经网络等)的许多快速和粗糙的模型。
  2. 衡量并比较其性能。对于每个模型,使用N折交叉验证,在N折上计算性能度量的均值和标准差。
  3. 分析每种算法的最重要的变量。
  4. 分析模型所犯错误的类型。人类将使用什么数据来避免这些错误?
  5. 快速进行特征选择和特征工程。
  6. 在前面5个步骤中执行一两个以上的快速迭代。
  7. 筛选出前三到五个最有希望的模型,优先选择会产生不同类型错误的模型。
  8. 注意:如果数据量巨大,则可能需要采样为较小的训练集,以便可以在合理的时间内训练许多不同的模型(请注意,这会对诸如大型神经网络或随机森林之类的复杂模型造成不利影响);尽可能自动化地执行这些步骤。

微调系统

  1. 使用交叉验证微调超参数:将你的数据转换选择视为超参数,尤其是当你对它们不确定时(例如,如果不确定是否用零或中位数替换缺失值,或者只是删除行);除非要研究的超参数值很少,否则应优先选择随机搜索而不是网格搜索,如果训练时间很长,你可能更喜欢贝叶斯优化方法(如Jasper Snoek等人所述使用高斯过程先验)。
  2. 尝试使用集成方法。组合最好的模型通常会比单独运行有更好的性能。
  3. 一旦对最终模型有信心,就可以在测试集中测量其性能,以估计泛化误差。
  4. 注意:你将需要在此步骤中使用尽可能多的数据,尤其是在微调结束时;与往常一样,尽可能做到自动化;在测量了泛化误差之后,请不要对模型进行调整,否则你会开始过拟合测试集。

演示你的解决方案

  1. 记录你所做的事情。
  2. 创建一个不错的演示文稿。确保先突出大的蓝图。
  3. 说明你的解决方案为何可以实现业务目标。
  4. 别忘了介绍你一路上注意到的有趣观点。描述什么有效,什么无效;列出你的假设和系统的局限性。
  5. 确保通过精美的可视化效果或易于记忆的陈述来传达你的主要发现(例如,“中等收入是房价的第一大预测指标”)。

启动

  1. 使你的解决方案准备投入生产环境(插入生产数据输入、编写单元测试等)。
  2. 编写监控代码,以定期检查系统的实时性能,并在系统故障时触发警报。当心缓慢的退化:随着数据的发展,模型往往会“腐烂”;评估性能可能需要人工流水线(例如通过众包服务);监视你的输入的质量(例如,传感器出现故障,发送了随机
    值,或者另一个团队的输出变得过时),这对于在线学习系统尤其重要。
  3. 定期根据新数据重新训练模型(尽可能自动进行)。

机器学习概览

什么是机器学习

机器学习是一个研究领域,让计算机无须进行明确编程就具备学习能力。(亚瑟·萨缪尔(Arthur Samuel),1959)

一个计算机程序利用经验E来学习任务T,性能是P,如果针对任务T的性能P随着经验E不断增长,则称为机器学习。(汤姆·米切尔(Tom Mitchell),1997)

为什么使用机器学习

  1. 有解决方案,但解决方案需要进行大量人工微调或需要遵循大量规则;
  2. 传统方法难以解决的复杂问题;
  3. 环境有波动;
  4. 洞察复杂问题和大量数据。

机器学习的应用示例

  1. 分析生产线上的产品图像来对产品进行自动分类:这是图像分类问题。
  2. 通过脑部扫描发现肿瘤:这是语义分割,图像中的每个像素都需要被分类。
  3. 自动分类新闻:这是自然语言处理,更具体地是文本分类。
  4. 论坛中自动标记恶评:这也是文本分类,使用自然语言处理工具。
  5. 自动对长文章做总结:这是自然语言处理的一个分支,叫作文本总结。
  6. 创建一个聊天机器人或者个人助理:这涉及自然语言处理的很多分支,包括自然语言理解和问答模块。
  7. 基于很多性能指标来预测公司下一年的收入:这是一个回归问题(如预测值),需要使用回归模型进行处理。
  8. 让应用对语音命令做出反应:这是语音识别,要求能处理音频采样。
  9. 检测信用卡欺诈:这是异常检测。
  10. 基于客户的购买记录来对客户进行分类,对每一类客户设计不同的市场策略:这是聚类问题。
  11. 用清晰而有洞察力的图表来表示复杂的高维数据集:这是数据可视化,经常涉及降维技术。
  12. 基于以前的购买记录给客户推荐可能感兴趣的产品:这是推荐系统,一个办法是将以前的购买记录(和客户的其他信息)输入人工神经网络,从而输出客户最可能购买的产品。
  13. 为游戏建造智能机器人:这通常通过强化学习来解决。

机器学习系统的类型

  1. 有监督学习:k-近邻算法、线性回归、逻辑回归、支持向量机(SVM)、决策树和随机森林、神经网络。
  2. 无监督学习:聚类算法、k-均值算法、DBSCAN、分层聚类分析(HCA)、异常检测和新颖性检测、单类SVM、孤立森林、可视化和降维、主成分分析(PCA)、核主成分分析、局部线性嵌入(LLE)、t-分布随机近邻嵌入(t-SNE)、关联规则学习、Apriori、Eclat。
  3. 半监督学习
  4. 强化学习
  5. 批量学习和在线学习
  6. 基于实例的学习与基于模型的学习

机器学习的主要挑战

  1. 训练数据的数量不足
  2. 训练数据不具代表性
  3. 低质量数据
  4. 无关特征
  5. 过拟合训练数据
  6. 欠拟合训练数据

测试与验证

  1. 超参数调整和模型选择
  2. 数据不匹配

端到端的机器学习项目

观察大局

  1. 框架问题
  2. 选择性能指标
  3. 检查假设

获取数据

  1. 创建工作区
  2. 下载数据
  3. 快速查看数据结构
  4. 创建测试集

从数据探索和可视化中获得洞见

  1. 将数据可视化
  2. 寻找相关性
  3. 试验不同属性的组合

机器学习算法的数据准备

  1. 数据清理
  2. 处理文本和分类属性
  3. 自定义转换器
  4. 特征缩放
  5. 转换流水线

选择和训练模型

  1. 训练和评估训练集
  2. 使用交叉验证来更好地进行评估

微调模型

  1. 网格搜索
  2. 随机搜索
  3. 集成方法
  4. 分析最佳模型及其误差
  5. 通过测试集评估系统

启动、监控和维护你的系统

分类

训练二元分类器

性能测量

  1. 使用交叉验证测量准确率
  2. 混淆矩阵
  3. 精度和召回率
  4. 精度/召回率权衡
  5. ROC曲线(受试者工作特征曲线)

多类分类器

误差分析

多标签分类

多输出分类

训练模型

线性回归

  1. 标准方程
  2. 计算复杂度

梯度下降

  1. 批量梯度下降
  2. 随机梯度下降
  3. 小批量梯度下降

多项式回归

学习曲线

正则化线性模型

  1. 岭回归
  2. Lasso回归
  3. 弹性网络
  4. 提前停止

逻辑回归

  1. 估计概率
  2. 训练和成本函数
  3. 决策边界
  4. Softmax回归

支持向量机

线性SVM分类

非线性SVM分类

  1. 多项式内核
  2. 相似特征
  3. 高斯RBF内核
  4. 计算复杂度

SVM回归

工作原理

  1. 决策函数和预测
  2. 训练目标
  3. 二次规划
  4. 对偶问题
  5. 内核化SVM
  6. 在线SVM

决策树

训练和可视化决策树

做出预测

估计类概率

CART训练算法

计算复杂度

基尼不纯度或熵

正则化超参数

回归

不稳定性

集成学习和随机森林

投票分类器

bagging和pasting

  1. Scikit-Learn中的bagging和pasting
  2. 包外评估

随机补丁和随机子空间

随机森林

  1. 极端随机树
  2. 特征重要性

提升法

  1. AdaBoost
  2. 梯度提升

堆叠法

降维

维度的诅咒

降维的主要方法

  1. 投影
  2. 流形学习

主成分分析 PCA

  1. 保留差异性
  2. 主要成分
  3. 向下投影到d维度
  4. 使用Scikit-Learn
  5. 可解释方差比
  6. 选择正确的维度
  7. PCA压缩
  8. 随机PCA
  9. 增量PCA

内核PCA

选择内核并调整超参数

局部线性嵌入 LLE

其他降维技术

  1. 随机投影
  2. 多维缩放(MDS)
  3. Isomap
  4. t分布随机近邻嵌入(t-SNE)
  5. 线性判别分析(LDA)

无监督学习技术

聚类

  1. K-Means
  2. 中心点初始化方法
  3. 加速的K-Means和小批量K-Means
  4. 寻找最佳聚类数
  5. K-Means的局限
  6. 使用聚类进行图像分割
  7. 使用聚类进行预处理
  8. 使用聚类进行半监督学习
  9. 其他聚类算法:聚集聚类、BIRCH、均值漂移、相似性传播、谱聚类

高斯混合模型

  1. 使用高斯混合进行异常检测
  2. 选择聚类数
  3. 贝叶斯高斯混合模型
  4. 其他用于异常检测和新颖性检测的算法:Scikit-Learn、PCA、Fast-MCD、隔离森林、局部离群因子 LOF、单类SVM。

Keras人工神经网络简介

从生物神经元到人工神经元

  1. 生物神经元
  2. 神经元的逻辑计算
  3. 感知器
  4. 多层感知器和反向传播
  5. 回归MLP
  6. 分类MLP

使用Keras实现MLP

  1. 安装TensorFlow 2
  2. 使用顺序API构建图像分类器:使用Keras加载数据集、使用顺序API创建模型、编译模型、训练和评估模型、使用模型进行预测
  3. 使用顺序API构建回归MLP
  4. 使用函数式API构建复杂模型
  5. 使用子类API构建动态模型
  6. 保存和还原模型
  7. 使用回调函数
  8. 使用TensorBoard进行可视化

微调神经网络超参数

  1. 隐藏层数量
  2. 每个隐藏层的神经元数量
  3. 学习率、批量大小和其他超参数:学习率、优化器、批量大小、激活函数、迭代次数

训练深度神经网络

梯度消失与梯度爆炸问题

  1. Glorot和He初始化
  2. 非饱和激活函数
  3. 批量归一化
  4. 梯度裁剪

重用预训练层

  1. 用Keras进行迁移学习
  2. 无监督预训练
  3. 辅助任务的预训练

更快的优化器

  1. 动量优化
  2. Nesterov加速梯度
  3. AdaGrad
  4. RMSProp
  5. Adam和Nadam优化
  6. 学习率调度

通过正则化避免过拟合

  1. l1和l2正则化
  2. dropout
  3. 蒙特卡罗(MC)Dropout
  4. 最大范数正则化

总结和实用指南

默认的DNN配置

《机器学习实战:基于Scikit-Learn、Keras和TensorFlow(第2版)》学习笔记_第1张图片

用于自归一化网络的DNN配置

《机器学习实战:基于Scikit-Learn、Keras和TensorFlow(第2版)》学习笔记_第2张图片

使用TensorFlow自定义模型和训练

TensorFlow快速浏览

《机器学习实战:基于Scikit-Learn、Keras和TensorFlow(第2版)》学习笔记_第3张图片

像NumPy一样使用TensorFlow

  1. 张量和操作
  2. 张量和NumPy
  3. 类型转换
  4. 变量
  5. 其他数据结构:稀疏张量、张量数组、不规则张量、字符串张量、集合、队列

定制模型和训练算法

  1. 自定义损失函数
  2. 保存和加载包含自定义组件的模型
  3. 自定义激活函数、初始化、正则化和约束
  4. 自定义指标
  5. 自定义层
  6. 自定义模型
  7. 基于模型内部的损失和指标
  8. 使用自动微分计算梯度
  9. 自定义训练循环

TensorFlow函数和图

  1. 自动图和跟踪
  2. TF函数规则

使用TensorFlow加载和预处理数据

数据API

  1. 链式转换
  2. 乱序数据
  3. 预处理数据
  4. 合并在一起
  5. 预取
  6. 和tf.keras一起使用数据集

TFRecord格式

  1. 压缩的TFRecord文件
  2. 协议缓冲区简介
  3. TensorFlow协议
  4. 加载和解析Example
  5. 使用SequenceExample Protobuf处理列表的列表

预处理输入特征

  1. 使用独热向量编码分类特征
  2. 使用嵌入编码分类特征
  3. Keras预处理层

TF Transform

使用卷积神经网络的深度计算机视觉

视觉皮层的架构

卷积层

  1. 滤波器
  2. 堆叠多个特征图
  3. TensorFlow实现
  4. 内存需求

池化层

CNN架构

  1. LeNet-5
  2. AlexNet
  3. GoogLeNet
  4. VGGNet
  5. ResNet
  6. Xception
  7. SENet

使用Keras实现ResNet-34 CNN

使用Keras的预训练模型

迁移学习的预训练模型

分类和定位

物体检测

  1. 全卷积网络1
  2. YOLO

语义分割

使用RNN和CNN处理序列

循环神经元和层

训练RNN

预测时间序列

  1. 基准指标
  2. 实现一个简单的RNN
  3. 深度RNN
  4. 预测未来几个时间步长

处理长序列

  1. 应对不稳定梯度问题
  2. 解决短期记忆问题

使用RNN和注意力机制进行自然语言处理

使用字符RNN生成莎士比亚文本

  1. 创建训练数据集
  2. 如何拆分顺序数据集
  3. 将顺序数据集切成多个窗口
  4. 创建和训练Char-RNN模型
  5. 使用Char-RNN模型
  6. 生成假莎士比亚文本
  7. 有状态RNN

情感分析

  1. 掩码屏蔽
  2. 重用预训练的嵌入

神经机器翻译的编码器-解码器网络

  1. 双向RNN
  2. 集束搜索

注意力机制

  1. 视觉注意力
  2. Transformer架构:位置嵌入、多头注意力

最近语言模型的创新

使用自动编码器和GAN的表征学习和生成 学习

有效的数据表征

使用不完整的线性自动编码器执行PCA

堆叠式自动编码器

  1. 使用Keras实现堆叠式自动编码器
  2. 可视化重构
  3. 可视化数据集
  4. 使用堆叠式自动编码器的无监督预训练
  5. 绑定权重
  6. 一次训练一个自动编码器

卷积自动编码器

循环自动编码器

去噪自动编码器

稀疏自动编码器

变分自动编码器

生成式对抗网络

  1. GAN的训练难点
  2. 深度卷积GAN
  3. GAN的逐步增长
  4. StyleGAN

强化学习

学习优化奖励

策略搜索

OpenAI Gym介绍

神经网络策略

评估动作:信用分配问题

策略梯度

马尔可夫决策过程

时序差分学习

Q学习

  1. 探索策略
  2. 近似Q学习和深度Q学习

实现深度Q学习

深度Q学习的变体

  1. 固定的Q值目标
  2. 双DQN
  3. 优先经验重播
  4. 竞争DQN

TF-Agents库

  1. 安装TF-Agents
  2. TF-Agents环境
  3. 环境规范
  4. 环境包装器和Atari预处理
  5. 训练架构
  6. 创建深度Q网络
  7. 创建DQN智能体
  8. 创建重播缓冲区和相应的观察者
  9. 创建训练指标
  10. 创建收集驱动者
  11. 创建数据集
  12. 创建训练循环

一些流行的RL算法概述

  1. Actor-Critic算法
  2. Asynchronous Advantage Actor-Critic(A3C)
  3. Advantage Actor-Critic(A2C)
  4. Soft Actor-Critic(SAC)
  5. Proximal Policy Optimization(PPO)
  6. Curiosity-based exploration

大规模训练和部署TensorFlow模型

为TensorFlow模型提供服务

  1. 使用TensorFlow Serving
  2. 在GCP AI平台上创建预测服务
  3. 使用预测服务

将模型部署到移动端或嵌入式设备

使用GPU加速计算

  1. 拥有你自己的GPU
  2. 使用配备GPU的虚拟机
  3. Colaboratory
  4. 管理GPU内存
  5. 在设备上放置操作和变量
  6. 跨多个设备并行执行

跨多个设备的训练模型

  1. 模型并行
  2. 数据并行
  3. 使用分布式策略API进行大规模训练
  4. 在TensorFlow集群上训练模型
  5. 在Google Cloud AI平台上运行大型训练作业
  6. AI平台上的黑箱超参数调整

你可能感兴趣的:(计算机技术,其他计算机技术,人工智能)