Udacity 人工智能编程基础 - 课程目录

Python 入门

1、为何学习 Python
2、数据类型和运算符
3、控制流
4、函数
5、脚本编写
6、Anaconda
7、Jupyter Notebooks
8、项目0:我的微信好友 https://github.com/udacity/AIPND-cn-trial
9、Lab:分类图像 https://github.com/udacity/AIPND/tree/master/intropylab-classifying-images
10、项目:控制迷宫寻宝机器人 https://github.com/udacity/AIPND_P1_Robot_Controller

Numpy, Pandas, Matplotlib

1、Numpy

Numpy 简介
为何要使用 Numpy
创建和保存 NumPy ndarray
使用内置函数创建 ndarray
访问和删除 ndarray 中的元素及向其中插入元素
ndarray 切片
布尔型索引、集合运算和排序
算术运算和广播
迷你项目:均值标准化和数据分离

2、Pandas

Pandas 简介
为何要使用 Pandas
创建Pandas Series
访问和删除 Pandas Series 中的元素
对 Pandas Series 执行算术运算
创建 Pandas DataFrame
访问 Pandas DataFrame 中的元素
处理 NaN
将数据加载到 DataFrame 中
迷你项目:股票数据的统计信息

3、Matplotlib 和 Seaborn - 单变量

简介
整洁的数据
条形图
绝对频率和相对频率
计算缺失的数据
饼图
直方图
为离散数据选择图形
描述统计学、离散群和坐标轴范围
标尺和变换
补充内容:核密度估计

4、Matplotlib 和 Seaborn - 多变量

课程简介
散点图和相关性
重叠、透明度和抖动
热图
小提琴图
箱线图
簇状柱形图
分面
调整单变量图形
折线图
附录:多变量可视化
补充内容:集群图
补充内容:轴须图和带状图

5、探索电影数据集 https://github.com/udacity/AIPND_CN_P2_Explore_Movie_Dataset

线性代数基础

1、简介

目标
线性代数的本质
了解使用 LaTex
Latex cheatsheet:https://www.authorea.com/users/77723/articles/110898-how-to-write-mathematical-equations-expressions-and-symbols-with-latex-a-cheatsheet
LaTeX Cookbook:
http://www.personal.ceu.hu/tex/cookbook.html#inline

2、向量

什么是向量(一)
什么是向量(二)
什么是向量(三)
向量 - 数学定义
转置
大小和方向
场中的运算
向量加法
标量和向量乘法

3、线性组合

线性组合(一)
线性组合(二)
线性组合和张成
线性相关性
求解简化的方程组

4、线性变换和矩阵

什么是矩阵
矩阵加法
矩阵的标量乘法
放行矩阵的乘法
矩阵乘法 - 一般情况
线性变换和矩阵(一)
线性变换和矩阵(二)
线性变换和矩阵(三)

5、向量Lab - 绘制向量

6、线性组合 Lab - 使用 Numpy.linalg 求解线性问题

7、线性映射 Lab - 可视化矩阵乘法

8、神经网络中的线性代数

简介
什么是神经网络
神经元如何相连
将所有概念关联到一起
前馈流程 - 计算 h
前馈流程 - 计算 y

9、线性代数:机器学习背后的优化原理 https://github.com/udacity/Linear-Algebra-cn

神经网络

1、神经网络简介

简介
分类问题
分类问题2
线性界线
更高维度的界线
感知器
为何称为神经网络
用感知器实现简单逻辑单元
感知器技巧 - 计算机如何学习分类
感知器算法
非线性界线
误差函数
误差函数与梯度下降
离散型与连续型 - 为什么使用 sigmoid 函数
多类别分类与 Softmax 函数
One-Hot 编码
最大似然率
最大概率化
交叉熵 1 - 损失函数
交叉熵 2 - 损失函数
多类别交叉熵
Logistic 回归
梯度下降实现
梯度下降算法推导与实现
Lab:梯度下降:https://github.com/udacity/deep-learning/tree/master/gradient-descent
感知器和梯度下降
连续型感知器
非线性数据
非线性模型
神经网络结构
前向反馈
反向传播
Lab:分析学生数据:https://github.com/udacity/deep-learning/tree/master/student-admissions

2、训练神经网络

训练优化
测试
过拟合和欠拟合
早期停止
正则化
正则化2
Dropout
局部最低点
随机重新开始
梯度消失
其他激活函数
Batch 和随机梯度下降
学习速率衰退
动量
世界各地的误差函数
3、通过 PyTorch 进行深度学习
PyTorch 简介
PyTorch 张量
定义网络
训练网络
Fashion-MNIST 练习
推理和验证
保存和加载训练过的网络
使用 Torchvision 加载数据集
迁移学习

五、图像分类项目
1、实战项目 - 图像分类:https://github.com/udacity/aipnd-project

你可能感兴趣的:(机器学习)