python数据科学导论_数据科学导论:Python语言(原书第3版)

数据科学导论:Python语言(原书第3版)

作者:(意)阿尔贝托·博斯凯蒂;(意)卢卡·马萨罗 著

出版日期:2020年02月

文件大小:48.52M

支持设备:

¥50.00

适用客户端:

言商书局

iPad/iPhone客户端:下载 Android客户端:下载PC客户端:下载更多详情:查看

?对图书下载、阅读卡购买有疑问:立即进入帮助中心>>

图书简介

目录

本书首先介绍了如何在最新版Python 3.6中安装基本的数据科学工具箱,本书采用单源方法(这意味着本书代码也可以在Python 2.7上重用)。接着,将引导你进入完整的数据改写和预处理阶段,主要阐述用于数据分析、探索或处理的数据加载、变换、修复等关键数据科学活动。最后,本书将完成数据科学精要的概述,介绍主要的机器学习算法、图分析技术、所有可视化工具和部署工具,其中可视化工具更易于向数据科学专家或商业用户展示数据处理结果。

译者序

前言

作者简介

审阅者简介

第1章 新手上路

1.1 数据科学与Python简介

1.2 Python的安装

1.2.1 Python 2还是Python 3

1.2.2 分步安装

1.2.3 安装必要的工具包

1.2.4 工具包升级

1.3 科学计算发行版

1.3.1 Anaconda

1.3.2 使用conda安装工具包

1.3.3 Enthought Canopy

1.3.4 WinPython

1.4 虚拟环境

1.5 核心工具包一瞥

1.6 Jupyter简介

1.6.1 快速安装与初次使用

1.6.2 Jupyter魔术命令

1.6.3 直接从Jupyter Notebook安装软件包

1.6.4 查看新的JupyterLab环境

1.6.5 Jupyter Notebook怎样帮助数据科学家

1.6.6 Jupyter的替代版本

1.7 本书使用的数据集和代码

1.7.1 Scikit-learn小规模数据集

1.7.2 MLdata.org和其他公共资源库

1.7.3 LIBSVM Data样本

1.7.4 直接从CSV或文本文件加载数据

1.7.5 Scikit-learn样本生成器

1.8 小结

第2章 数据改写

2.1 数据科学过程

2.2 使用pandas进行数据加载与预处理

2.2.1 数据快捷加载

2.2.2 处理问题数据

2.2.3 处理大数据集

2.2.4 访问其他的数据格式

2.2.5 合并数据

2.2.6 数据预处理

2.2.7 数据选择

2.3 使用分类数据和文本数据

2.3.1 特殊的数据类型——文本

2.3.2 使用Beautiful Soup抓取网页

2.4 使用Numpy进行数据处理

2.4.1 NmuPy中的N维数组

2.4.2 NmuPy ndarray对象基础

2.5 创建Numpy数组

2.5.1 从列表到一维数组

2.5.2 控制内存大小

2.5.3 异构列表

2.5.4 从列表到多维数组

2.5.5 改变数组大小

2.5.6 利用NumPy函数生成数组

2.5.7 直接从文件中获得数组

2.5.8 从pandas提取数据

2.6 NumPy快速操作和计算

2.6.1 矩阵运算

2.6.2 NumPy数组切片和索引

2.6.3 NumPy数组堆叠

2.6.4 使用稀疏数组

2.7 小结

第3章 数据科学流程

3.1 EDA简介

3.2 创建新特征

3.3 维数约简

3.3.1 协方差矩阵

3.3.2 主成分分析

3.3.3 一种用于大数据的PCA变型——RandomizedPCA

3.3.4 潜在因素分析

3.3.5 线性判别分析

3.3.6 潜在语义分析

3.3.7 独立成分分析

3.3.8 核主成分分析

3.3.9 T-分布邻域嵌入算法

3.3.10 受限波尔兹曼机

3.4 异常检测和处理

3.4.1 单变量异常检测

3.4.2 EllipticEnvelope

3.4.3 OneClassSVM

3.5 验证指标

3.5.1 多标号分类

3.5.2 二值分类

3.5.3 回归

3.6 测试和验证

3.7 交叉验证

3.7.1 使用交叉验证迭代器

3.7.2 采样和自举方法

3.8 超参数优化

3.8.1 建立自定义评分函数

3.8.2 减少网格搜索时间

3.9 特征选择

3.9.1 基于方差的特征选择

3.9.2 单变量选择

3.9.3 递归消除

3.9.4 稳定性选择与基于L1的选择

3.10 将所有操作包装成工作流程

3.10.1 特征组合和转换链接

3.10.2 构建自定义转换函数

3.11 小结

第4章 机器学习

4.1 准备工具和数据集

4.2 线性和逻辑回归

4.3 朴素贝叶斯

4.4 K近邻

4.5 非线性算法

4.5.1 基于SVM的分类算法

4.5.2 基于SVM的回归算法

4.5.3 调整SVM(优化)

4.6 组合策略

4.6.1 基于随机样本的粘贴策略

4.6.2 基于弱分类器的Bagging策略

4.6.3 随机子空间和随机分片

4.6.4 随机森林和Extra-Trees

4.6.5 从组合估计概率

4.6.6 模型序列——AdaBoost

4.6.7 梯度树提升

4.6.8 XGBoost

4.6.9 LightGBM

4.6.10 CatBoost

4.7 处理大数据

4.7.1 作为范例创建一些大数据集

4.7.2 对容量的可扩展性

4.7.3 保持速度

4.7.4 处理多样性

4.7.5 随机梯度下降概述

4.8 自然语言处理一瞥

4.8.1 词语分词

4.8.2 词干提取

4.8.3 词性标注

4.8.4 命名实体识别

4.8.5 停止词

4.8.6 一个完整的数据科学例子——文本分类

4.9 无监督学习概览

4.9.1 K均值算法

4.9.2 基于密度的聚类技术——DBSCAN

4.9.3 隐含狄利克雷分布

4.10 小结

第5章 可视化、发现和结果

5.1 matplotlib基础介绍

5.1.1 曲线绘图

5.1.2 绘制分块图

5.1.3 数据中的关系散点图

5.1.4 直方图

5.1.5 柱状图

5.1.6 图像可视化

5.1.7 pandas的几个图形示例

5.1.8 通过平行坐标发现模式

5.2 封装matplotlib命令

5.2.1 Seaborn简介

5.2.2 增强EDA性能

5.3 高级数据学习表示

5.3.1 学习曲线

5.3.2 确认曲线

5.3.3 随机森林的特征重要性

5.3.4 GBT部分依赖关系图形

5.3.5 创建MA-AAS预测服务器

5.4 小结

第6章 社交网络分析

6.1 图论简介

6.2 图的算法

6.2.1 节点中心性的类型

6.2.2 网络划分

6.3 图的装载、输出和采样

6.4 小结

第7章 深度学习进阶

7.1 走近深度学习

7.2 使用CNN进行图像分类

7.3 使用预训练模型

7.4 处理时间序列

7.5 小结

第8章 基于Spark的大数据分析

8.1 从独立机器到大量节点

8.1.1 理解为什么需要分布式框架

8.1.2 Hadoop生态系统

8.2 PySpark入门

8.2.1 设置本地Spark实例

8.2.2 弹性分布式数据集实验

8.3 跨集群节点共享变量

8.3.1 只读广播变量

8.3.2 只写累加器变量

8.3.3 同时使用广播和累加器变量——示例

8.4 Spark数据预处理

8.4.1 CSV文件和Spark数据框

8.4.2 处理缺失数据

8.4.3 在内存中分组和创建表

8.4.4 将预处理后的数据框或RDD写入磁盘

8.4.5 Spark数据框的用法

8.5 基于Spark的机器学习

8.5.1 在KDD99数据集上运行Spark

8.5.2 读取数据集

8.5.3 特征工程

8.5.4 训练学习器

8.5.5 学习器性能评价

8.5.6 机器学习管道的强大功能

8.5.7 手动调参

8.5.8 交叉验证

8.5.9 最后的清理

8.6 小结

附录 增强Python基础

你可能感兴趣的:(python数据科学导论)