Machine Learning Mastery 计算机视觉教程
- 通道在前和通道在后图像格式的温和介绍
- 深度学习在计算机视觉中的 9 个应用
- 为 CNN 准备和扩充图像数据的最佳实践
- 8 本计算机视觉入门书籍
- 卷积层在深度学习神经网络中是如何工作的?
- DeepLearningAI 卷积神经网络课程(复习)
- 如何在 Keras 中配置图像数据扩充
- 如何从零开始为 CIFAR-10 照片分类开发 CNN
- 用于 Fashion-MNIST 服装分类的深度学习 CNN
- 如何为 MNIST 手写数字分类开发 CNN
- 如何分类猫狗照片(准确率 97%)
- 亚马逊雨林卫星照片多标签分类
- 如何使用 FaceNet 在 Keras 中开发人脸识别系统
- 如何通过深度学习开发计算机视觉能力
- 如何用 CNN 评估图像分类的像素缩放方法
- 如何开始计算机视觉深度学习(7 天迷你课程)
- 如何在 Keras 从头开发 VGG、Inception 和 ResNet 模块
- 如何使用 PIL/Pillow
- 如何用 Keras 加载和可视化标准计算机视觉数据集
- 如何使用 Keras API 加载、转换和保存图像
- 如何为 Keras 深度学习从目录加载大数据集
- 如何为深度学习手动缩放图像像素数据
- 如何在 Keras 中对图像像素归一化、居中和标准化
- 如何将深度学习用于人脸检测
- 如何在 Keras 中将 VGGFace2 用于人脸识别
- 如何在 Keras 中将 Mask RCNN 用于照片中的对象检测
- 如何在 Keras 中将 YOLOv3 用于对象检测
- 如何使用 Keras 训练对象检测模型
- 如何使用测试时间扩充做出更好的预测
- 在 Keras 中将计算机视觉模型用于迁移学习
- 如何在卷积神经网络中可视化过滤器和特征图
- 用于管理模型复杂性
1×1
卷积的温和介绍 - 面向人脸识别的深度学习入门
- ImageNet 挑战赛(ILSVRC)的温和介绍
- 深度学习对象识别入门
- 用于人脸识别的单样本学习
- 卷积神经网络填充和步长的温和介绍
- 卷积神经网络池化层的简单介绍
- 深度学习计算机视觉前景的温和介绍
- 用于图像分类的卷积神经网络模型创新
- 斯坦福卷积神经网络视觉识别课程(复习)
- 深度学习迁移学习入门
- 计算机视觉入门
Machine Learning Mastery 数据准备教程
- 如何用 Python 进行机器学习的数据清洗
- 为机器学习的缺失值添加二元标志
- 8 本关于数据清理和特征工程的顶级书籍
- 如何用 Python 计算特征重要性
- 如何选择机器学习的数据准备方式
- 如何将列转换器用于数据准备
- 如何为 Sklearn 创建自定义数据转换
- 机器学习的数据准备(7 天迷你课程)
- 为什么数据准备在机器学习中如此重要
- 机器学习的数据准备技术之旅
- 执行数据准备时如何避免数据泄露
- 6 种 Python 降维算法
- 机器学习降维介绍
- 如何为机器学习使用离散化变换
- 特征工程与选择(书评)
- 如何为机器学习在表格数据上使用特征提取
- 如何对回归数据执行特征选择
- 如何对类别数据执行特征选择
- 如何对数值输入数据执行特征选择
- 如何选择机器学习的特征选择方法
- 机器学习中数据准备技术的框架
- 如何网格搜索数据准备技术
- 如何爬坡机器学习测试集
- 如何在 Sklearn 中保存和重用数据准备对象
- 如何在 Python 中转换回归的目标变量
- 机器学习中缺失值的迭代插补
- 机器学习中缺失值的 KNN 插补
- Python 中用于降维的线性判别分析
- Python 中的 4 种自动异常值检测算法
- 类别数据的顺序编码和单热编码
- 如何为机器学习使用多项式特征变换
- 如何为机器学习使用幂变换
- Python 中用于降维的主成分分析
- 如何为机器学习使用分位数变换
- Python 中用于特征选择的递归特征消除(RFE)
- 如何为机器学习缩放带有异常值的数据
- 如何选择性缩放机器学习的数值输入变量
- Python 中用于降维的奇异值分解
- 如何在 Python 中使用标准缩放器和最小最大缩放器变换
- 机器学习中缺失值的统计插补
- 使用 Sklearn 的表格数据测试时间增强
- 如何在机器学习中训练测试集
- 什么是机器学习项目中的数据准备
Machine Learning Mastery 深度学习表现教程
- 训练深度学习神经网络模型的挑战的温和介绍
- 深度学习中激活正则化的温和介绍
- 深度学习 Adam 优化算法的温和介绍
- 深度神经网络批量归一化简介
- 配置反向传播来训练更好的神经网络的 8 个技巧
- 如何获得更好的深度学习效果(7 天迷你课程)
- 3 本深度学习实践者必备书籍
- 用于深度神经网络正则化的丢弃法的温和介绍
- 避免过度训练神经网络的提前停止的温和介绍
- 深度学习神经网络的集成学习方法
- 更好的深度学习框架
- 如何在深度学习神经网络中使用贪婪逐层预训练
- 如何开发水平投票深度学习集成来减少方差
- 如何利用批量归一化加速深度神经网络的学习
- 如何避免梯度裁剪带来的梯度爆炸
- 训练深度学习神经网络时如何选择损失函数
- 如何配置神经网络的层数和节点数
- 如何使用节点和层控制神经网络模型容量
- 如何使用批量大小控制神经网络训练的稳定性
- 如何在 Keras 中创建深度学习模型的装袋集成
- 如何通过深度学习展示自己的基本功
- 如何使用 ReLU 修复梯度消失问题
- 如何通过添加噪声来提高深度学习模型的鲁棒性
- 如何使用数据缩放提高深度学习模型的稳定性和表现
- 如何利用迁移学习来提高深度学习神经网络的表现
- 如何利用 Keras 中的活动正则化减少泛化误差
- 如何在 Keras 中利用权重衰减减少神经网络的过拟合
- 如何在 Keras 中利用权重约束减少过拟合
- 如何在 Keras 中利用丢弃正则化减少过拟合
- 适时使用提前停止来停止神经网络的训练
- 数据集大小对深度学习模型技巧和表现评估的影响
- 如何提高深度学习表现
- 如何避免深度学习神经网络中的过拟合
- 深度学习中权重限制的温和介绍
- 如何利用学习曲线诊断机器学习模型表现
- 训练深度学习神经网络时如何配置学习率
- 用于训练深度学习神经网络的损失和损失函数
- 如何在 Keras 开发深度学习模型集成
- 神经网络诀窍(书评)
- 在 Keras 中集成神经网络模型权重(Polyak 平均)
- 深度学习神经网络从业者推荐
- 整流线性单元的温和介绍
- Python 中深度学习神经网络的快照集成
- Python 中深度学习神经网络的堆叠集成
- 使用噪声训练神经网络来减少过拟合
- 了解学习率对神经网络表现的影响
- 可视化梯度消失问题
- 使用权重正则化减少深度学习模型的过拟合
- 如何为深度学习神经网络开发加权平均集成
- 为什么训练神经网络很难
Machine Learning Mastery 集成学习教程
- 如何用 Python 开发 AdaBoost 集成
- 使用不同数据转换开发装袋集成
- 如何用 Python 开发装袋集成
- 使用 Python 的混合集成机器学习
- 如何组合集成学习的预测
- Python 中的动态分类器选择集成
- Python 中用于分类的动态集成选择(DES)
- 机器学习集成多样性的温和介绍
- 集成学习算法复杂度和奥卡姆剃刀
- 6 本集成学习书籍
- Python 集成机器学习(7 天迷你课程)
- 机器学习的纠错输出码(ECOC)
- 机器学习提升集成的本质
- 自举聚合集成的本质
- 机器学习堆叠集成的本质
- 如何使用 Python 开发额外树集合
- Python 中的极限梯度提升(XGBoost)集成
- 如何在 Python 中开发特征选择子空间集成
- 如何在 Python 中开发梯度提升机集成
- 将 Sklearn、XGBoost、LightGBM 和 CatBoost 用于梯度提升
- Python 中的生长和修剪集成
- Python 中基于直方图的梯度提升集成
- 开发对集成学习如何工作的直觉
- 如何开轻量梯度提升机(LightGBM)集合
- 什么是机器学习中的元学习?
- 混合专家集成的温和介绍
- 如何用 Python 开发多输出回归模型
- 多模型机器学习入门
- Python 中的多元自适应回归样条(MARS)
- 多类分类的一对一和一对剩余
- 如何在机器学习中使用折外预测
- 如何用 Python 开发随机森林集成
- 如何用 XGBoost 开发随机森林集成
- 如何用 Python 开发随机子空间集成
- 使用 Python 开发堆叠集成机器学习
- 集成学习中强学习器与弱学习器
- 如何在 Python 中开发超级学习器集成
- 集成学习算法的温和介绍
- 如何用 Python 开发投票集成
- 如何用 Python 开发加权平均集成
- 集成学习入门
- 为什么使用集成学习?
Machine Learning Mastery 生成对抗网络教程
- Pix2Pix 生成对抗网络的温和介绍
- 大型生成对抗网络 BigGAN 的温和介绍
- 9 本关于生成对抗网络的书
- 如何用 Keras 开发用于图像到图像转换的 CycleGAN
- 生成对抗性网络损失函数的温和介绍
- 如何从零开始开发 Wasserstein 生成对抗网络
- 如何在 Keras 中实现 GAN Hacks 来训练稳定模型
- 如何编写 GAN 训练算法和损失函数
- 如何从头开发一个条件 GAN(CGAN)
- 如何在 Keras 从零开始开发 1D 生成对抗网络
- 如何开发 GAN 来生成 CIFAR10 小型彩色照片
- 如何开发 GAN 来生成 MNIST 手写数字
- 如何开发用于图像到图像转换的 Pix2Pix GAN
- 如何用 Keras 从零开始开发辅助分类器 GAN(AC-GAN)
- 如何在 Keras 开发信息最大化 GAN(InfoGAN)
- 如何用 Keras 从零开始实现 CycleGAN 模型
- 如何评估生成对抗网络
- 如何入门生成对抗网络(7 天小型课程)
- 如何用 Keras 从零开始实现 Pix2Pix GAN 模型
- 如何在 Keras 中实现渐进式增长 GAN 模型
- 如何实现评估 GANs 的 Frechet 初始距离
- 如何实现评估 GANs 的初始得分
- 如何实现生成对抗网络的 Wasserstein 损失
- 如何在生成人脸时探索 GAN 潜在空间
- 如何在 Keras 训练一个渐进式增长的 GAN 来合成人脸
- 训练稳定生成对抗网络的技巧
- 生成对抗网络的 18 个令人印象深刻的应用
- 渐进式增长 GAN 的温和介绍
- StyleGAN 的温和介绍——风格生成对抗网络
- 如何在 Keras 开发最小二乘生成对抗网络
- 如何识别和诊断 GAN 故障模式
- 开始使用 GANs 的最佳资源
- 如何在 Keras 中从头实现半监督 GAN(SGAN)
- 生成对抗网络模型之旅
- 如何在 Keras 中使用 UpSampling2D 和 Conv2D 转置层
- 生成对抗网络(GANs)的温和介绍
- CycleGAN 图像转换的温和介绍
Machine Learning Mastery 不平衡数据教程
- 用于不平衡分类的装袋和随机森林
- 如何为不平衡分类结合过采样和欠采样
- 用于不平衡分类的成本敏感决策树
- 不平衡分类的成本敏感学习
- 不平衡分类的成本敏感逻辑回归
- 如何为不平衡分类开发成本敏感的神经网络
- 用于不平衡分类的成本敏感 SVM
- 如何为不平衡分类修复 K 折交叉验证
- 不平衡类别的数据采样方法之旅
- 不平衡类别分布的分类准确率故障
- 机器学习的 Fbeta 测量的温和介绍
- 不平衡分类项目的分步框架
- 如何为乳腺癌患者存活建立概率模型
- 开发严重偏斜的类分布的直觉
- 不平衡分类为什么难?
- 检测乳腺摄影微钙化的不平衡分类模型
- 如何开发不平衡分类模型来检测漏油
- 开发信用好坏的不平衡分类模型
- Python 不平衡分类(7 天迷你课程)
- 成人收入数据集的不平衡分类
- 欺诈性信用卡交易数据集的不平衡分类
- 大肠杆菌数据集的不平衡多类分类
- 玻璃识别数据集的不平衡多类分类
- 多类不平衡分类
- 每个不平衡分类度量的朴素分类器是什么?
- 不平衡数据集的单类分类算法
- 如何计算不平衡分类的准确率、召回率和 F-Measure
- 音素不平衡类别数据集的预测模型
- 如何校准不平衡分类的概率
- 不平衡分类概率度量的温和介绍
- 用于不平衡分类的随机过采样和欠采样
- 不平衡分类的最佳资源
- 不平衡分类的 ROC 曲线和精确率召回率曲线
- Python 中用于不平衡分类的 SMOTE
- 不平衡分类的标准机器学习数据集
- 用于不平衡分类的阈值移动的温和介绍
- 不平衡分类的评估指标之旅
- 不平衡分类的欠采样算法
- 不平衡分类的温和介绍
- 如何为不平衡分类配置 XGBoost
-
- 用于函数优化的一维测试函数
- 用于函数优化的二维测试函数
- 粒子群优化的温和介绍
- 从零开始编写 Adam 优化算法
- Python 中的盆地跳跃优化
- BFGS 优化算法的温和介绍
- 遗传编程书籍
- 3 本机器学习优化书籍
- Python 曲线拟合
- Python 中从零开始的差分进化
- Python 差分进化的全局优化
- Python 双重退火优化
- Python 中从零开始的进化策略
- 使用随机优化算法的特征选择
- 使用 SciPy 的函数优化
- 如何从零开始实现梯度下降优化
- 从零开始的 AdaMax 梯度下降优化
- 从零开始的 AMSGrad 梯度下降优化
- 从零开始的 Nadam 梯度下降优化
- 从零开始的 Adadelta 梯度下降
- 从零开始的 AdaGrad 梯度下降
- 从零开始的动量梯度下降
- 从零开始的 Nesterov 动量梯度下降
- 从零开始的 RMSProp 梯度下降
- 什么是机器学习中的梯度?
- 如何在 Python 中使用 NelderMead 优化
- 函数优化的温和介绍
- Python 中从零开始的迭代式局部搜索
- Python 线性搜索优化
- 局部优化和全局优化的对比
- 如何手动优化机器学习模型超参数
- 如何手动优化神经网络模型
- 使用 Sklearn 建模管道优化
- 机器学习没有免费午餐定理
- 机器学习优化速成班
- 如何使用优化算法手动拟合回归模型
- 过早收敛的温和介绍
- 函数优化的随机搜索和网格搜索
- Python 中从零开始的简单遗传算法
- Python 中从零开始的模拟退火
- Python 中从零开始的随机爬山
- 随机优化算法的简单介绍
- 如何选择优化算法
- Python 中的单变量函数优化
- Python 中函数优化的可视化
- 为什么优化在机器学习中很重要
-
- 简评詹森不等式
- 贝叶斯最优分类器的简单介绍
- 机器学习贝叶斯定理的温和介绍
- 如何在 Python 中从零开始开发朴素贝叶斯分类器
- 机器学习的连续概率分布
- 机器学习交叉熵的温和介绍
- 机器学习的离散概率分布
- 如何计算机器学习的 KL 散度
- 如何在 Python 中使用经验分布函数
- 期望最大化算法的温和介绍
- 如何开发联合概率、边缘概率和条件概率的直觉
- 如何通过工作实例开发概率的直觉
- 如何利用概率开发和评估朴素分类器策略
- 机器学习的信息增益和互信息
- 贝叶斯信念网络的温和介绍
- 计算学习理论的温和介绍
- 使用工作实例开发贝叶斯定理的直觉
- 对联合概率、边缘概率和条件概率的温和介绍
- 最大似然估计线性回归的简单介绍
- 使用最大似然估计的逻辑回归入门
- 马尔可夫链蒙特卡罗的温和介绍
- 机器学习最大后验概率的温和介绍
- 蒙特卡罗采样的温和介绍
- 使用 AIC、BIC 和 MDL 的概率模型选择
- 概率密度估计的简单介绍
- 面向机器学习的概率(7 天迷你课程)
- 机器学习中概率的入门资源
- 随机在机器学习中意味着什么?
- 机器学习中不确定性的温和介绍
- 概率分布的简单介绍
- 如何在 Python 中从头实现贝叶斯优化
- 信息熵的温和介绍
- 机器学习最大似然估计的温和介绍
- 什么是概率?
- 为机器学习学习概率的 5 个理由
Machine Learning Mastery R 机器学习教程
- 从乘客存活预测案例研究中获得的应用机器学习经验
- R 机器学习书籍
- 用于应用预测建模的 Caret 包
- 使用 Caret R 包比较模型并选择最佳方案
- 在 R 中比较机器学习算法
- R 中的凸优化
- 使用可视化更好地理解你在 R 中的数据(今天你可以使用的 10 个秘籍)
- 将 Caret R 包用于数据可视化
- 使用描述性统计更好地理解你的 R 数据
- 如何用 R 评估机器学习算法
- 使用 caret 包选择特征
- 在 R 中保存并最终确定您的机器学习模型
- 如何在 R 中开始机器学习(一个周末内获得结果)
- 如何使用 Caret 包估计 R 中的模型准确率
- 如何在 R 中入门机器学习算法
- 如何在 R 中加载机器学习数据
- 如何将 R 用于机器学习
- R 中的线性分类
- R 中的线性回归
- R 中的机器学习数据集(你现在可以使用的 10 个数据集)
- 如何在 R 中构建机器学习算法的集成
- R 中的机器学习评估指标
- R 中的第一个机器学习逐步项目
- R 中的机器学习项目模板
- R 中的决策树非线性分类
- R 中的非线性分类
- R 中的决策树非线性回归
- R 中的非线性回归
- R 中的惩罚回归
- 通过预处理为机器学习准备好数据
- R 的超快速成班(面向开发者)
- R 机器学习迷你课程
- R 机器学习回顾
- 抽查 R 中的机器学习算法(下一个项目要尝试的算法)
- 调整 R 中的机器学习算法(随机森林案例研究)
- 使用 Caret 包调整机器学习模型
- 将 R 用于机器学习
- 什么是 R
Machine Learning Mastery Weka 教程
- Weka 机器学习迷你课程
- 使用 Weka 加快应用机器学习的进度
- 如何在 Weka 中更好地理解你的机器学习数据
- 我开始机器学习时犯的最大错误,以及如何避免
- 如何在 Weka 中逐步完成二分类项目
- 案例研究:预测五年内糖尿病的发作(第 1 部分,共 3 部分)
- 案例研究:预测五年内糖尿病的发作(第 2 部分,共 3 部分)
- 案例研究:预测五年内糖尿病的发作(第 3 部分,共 3 部分)
- 如何在 Weka 中比较机器学习算法的表现
- 设计并运行你在 Weka 的第一个实验
- 如何下载安装 Weka 机器学习工作台
- 如何在 Weka 中评估机器学习模型的基线表现
- 如何在 Weka 中估计机器学习算法的表现
- 用于提高准确率和减少训练时间的特征选择
- 如何获得更多 Weka 机器学习工作台的帮助
- 如何使用 Weka 处理机器学习数据中的缺失值
- 如何在 Weka 中运行你的第一个分类器
- 如何在 Weka 中调整机器学习算法
- 在 Weka 中为更好的预测使用提升、装袋和混合集成
- 如何在 Weka 中加载 CSV 机器学习数据
- 使用关联规则学习的菜篮子分析
- 如何在 Weka 完成多类分类项目
- 如何在 Weka 中规范和标准化你的机器学习数据
- 如何在 Weka 中用机器学习数据执行特征选择
- 针对机器学习问题的快速脏数据分析
- 如何在 Weka 中浏览回归机器学习项目
- 如何保存你的机器学习模型并在 Weka 中做出预测
- Weka 中用于练习的标准机器学习数据集
- Weka 中解决机器学习问题的模板
- Weka 机器学习工作台之旅
- 如何在 Weka 中转换你的机器学习数据
- 如何在 Weka 中调整机器学习算法
- 如何在 Weka 中使用分类机器学习算法
- 如何在 Weka 中使用集成机器学习算法
- 如何在 Weka 中使用机器学习算法
- 如何在 Weka 中使用回归机器学习算法
- 什么是 Weka 机器学习工作台
下载
Docker
docker pull apachecn0/ml-mastery-zh-pt2
docker run -tid -p :80 apachecn0/ml-mastery-zh
# 访问 http://localhost:{port}
PYPI
pip install ml-mastery-zh-pt2
ml-mastery-zh-pt2
# 访问 http://localhost:{port}
NPM
npm install -g ml-mastery-zh-pt2
ml-mastery-zh-pt2
# 访问 http://localhost:{port}
贡献指南
本项目需要校对,欢迎大家提交 Pull Request。
请您勇敢地去翻译和改进翻译。虽然我们追求卓越,但我们并不要求您做到十全十美,因此请不要担心因为翻译上犯错——在大部分情况下,我们的服务器已经记录所有的翻译,因此您不必担心会因为您的失误遭到无法挽回的破坏。(改编自维基百科)
组织介绍
赞助我们
通过平台自带的打赏功能,或点击这里。