成为一名机器学习大咖到底有多难?


机器学习,说简单就简单,说难还真难,对于还没入行的同学,大概最难的是如何入门机器学习?应该掌握哪些知识?看什么书最高效?如何避免绕弯?如何利用已有基础进一步提高水平??束手无策。

为帮助对机器学习感兴趣同学快速高效入门机器学习,AI100特邀中科院教授冒老师,为大家带来系列直播课《机器学习大咖版》,课程从零开始讲解机器学习知识,层层递进,直通机器学习的本质及其应用。

直播时间丨10月11日起,每周三、五晚,共12节

活动丨早鸟价399元,报名从速

适合人群丨在校大学生/零基础/对机器学习感兴趣想要入行的小伙伴

冒老师

中科院副教授

计算机博士,现在中科院从事科研教学工作,十余年机器学习教学经验,主持国家级科研项目3项,研究方向为机器学习、计算机视觉及多媒体处理。

在CSDN学院授课过《XGBoost从基础到实战》《机器学习之数学基础》等系列精品直播,以专业实力爆表,亲和力爆表,课程群细致认真爆表,收获一大波冒菜(冒老师粉丝专属名?)。

第一讲  机器学习简介  10月11日

课程内容 1. 机器学习定义;
2. 机器学习行业应用举例;
3. 机器学习任务:分类、回归、聚类、降维、半监督学习、迁移学习、强化学习;

4. 机器学习算法的组成部分:目标函数(损失函数+正则)、优化方法;

5. 模型评估和模型选择:模型复杂度、overfitting、交叉验证、超参数空间、网格搜索…

案例 波士顿房价。
包含知识点——
损失函数、L1/L2正则、最小二乘、梯度下降/随机梯度下降。
课程目标 熟悉机器学习领域的常用术语,了解机器学习在AI环境中的位置。


第二讲  第一个机器学习实例  10月13日

课程内容 1. 学习环境配置:常用软件、环境配置及机器学习库
anaconda:Python、Python科学计算包(NumPy,SciPy,Pandas)、Python数据可视化工具包(Matplotlib, seaborn)、Python机器学习库(scikit-learn)
2. 特征工程初步
3. 线性回归实现
案例 波士顿房价预测案例详解。
包含知识点——
数据集探索(Pandas、seaborn);
复习模型评估和模型选择:交叉验证、网格搜索(Sklearn)。

课程目标

学会用机器学习工具包从头到尾用线性回归解决一个实际问题。

第三讲  Logistic回归分析及神经网络  10月18日

课程内容 1. 损失函数:logistic损失
2. 优化算法:IRLS(梯度下降、牛顿法)、BP算法
3. 正则化:L1/ L2
4. 复习模型评估
案例 Otto商品分类

包含内容——
用Logistic回归和神经网络实现Otto商品分类
课程目标 理解分类任算法Logistic回归和神经网络原理,复习数据集探索,并学会用sklearn用Logistic


第四讲  支持向量机(SVM)  10月20日

课程内容 1. 损失函数:Hingloss损失
优化算法:SOM(神经网络聚类算法)支持向量机——SMO(序列最小最优化算法
2. 正则化:L2/L1
3. 其他:最小间隔、核方法、支持向量回归
案例 用SVM实现Otto商品分类,重点比较SVM(不同参数正则参数和核函数)与Logistic回归
课程目标 学会用SVM模型分类任务


第五讲  降维与矩阵分解  10月25日

课程内容 1. 主成分分析(PCA)
2. 独立成分分析(ICA)
3. 非负矩阵分解(NFM)
4. 隐因子模型(LFM)
案例 人脸图像特征提取:
PCA、ICA、NFM

LFM在推荐系统部分案例进行讲解
课程目标 学习用降维技术对高维特征进行降维


第六讲  聚类  10月27日

课程内容 1. Kmeans聚类和混合高斯模型GMM(EM算法)
2. 吸引子传播聚类算法(Affinity Propagation聚类算法)
3. Density Peak聚类算法
案例 1、Iris数据聚类分析:Kmeans、AP
what makes Paris 2、Paris: 判别特征发现:聚类分类迭代(SVM、Kmeans)
课程目标 学会常用的聚类算法


第七讲  特征工程  11月1日

课程内容 1、 数据预处理
2、 特征编码:标签编码、Dummy (One hot) 编码、后验均值编码
3、 特征组合
4、 特征选择
案例 案例:Rent Listing Requries数据探索及特征工程
数据预处理:缺失值处理、异常值处理、数据相关性分析
数据可视化
特征编码:
课程目标 学会数据预处理常用方法及特征编码方法


第八讲  决策树及基于树的集成模型:随机森林  11月3日

课程内容 1. 损失函数:Gini系数
2. 正则:L1/L2正则、及早停止
3. 优化:分裂
4. Bagging &随机森林
案例 蘑菇分类
决策树、随机森林、Logistic回归
参数调优和网格搜索
课程目标 学习Bagging集成思想及基于决策树的集成算法:随机森林


第九讲  梯度提升决策树(GBDT)  11月8日

课程内容 1. 第一个Boosting算法:AdaBoost
2. 流行GBDT模型:xgboost、lightGBM
案例 Otto商品分类:xgboost及参数调优
课程目标 学会kaggle神器xgboost原理及其在实例任务上的应用


第十讲  推荐系统与广告点击率(CTR)预估(1)  11月10日

课程内容 1. 协同过滤(Collaborative filtering,CF)
2. 基于内容的过滤
3. FFM & LFM
4. 关联规则
案例 Expedia Hotel Recommendations
课程目标 学习推荐系统和CTR预估的基本技术


第十一讲  推荐系统与广告点击率(CTR)预估(2)  11月15日

课程内容 1、 排序学习
2、模型评估
案例 Expedia Hotel Recommendations
课程目标 通过实际案例学会推荐系统实现


第十二讲  模型融合  11月17日

课程内容 1. Blending
2. Stacking
案例 Otto商品分类/Expedia Hotel Recommendations:Stacking
课程目标 出师,准备做一只机器学习大咖


加入课程微信群



扫码加课程小助手,回复“大咖”,进课程讨论群一起做机器学习大咖!



你可能感兴趣的:(人工智能,数据结构与算法,python)