数据科学项目7个设置:确保依赖关系、保持输出稳定

在开始一项数据科学项目时,我们通常需要进行设置或配置,以确保所需的依赖关系,保持输出稳定,准备通用函数。

数据科学项目7个设置:确保依赖关系、保持输出稳定_第1张图片

项目设置的一个案例(来自Handson-ML2)

本文将介绍JuypterNotebook中最有帮助的一些项目设置。

1.确保Python版本

检查JupyterNotebook中的Python解释器版本:

import sys

sys.version'3.7.6 (default, Jan 8 2020, 13:42:34) \n[Clang 4.0.1 (tags/RELEASE_401/final)]'

为确保项目由Python解释器的最低及以上要求版本运行,可在项目设置中添加以下代码:

# Python ≥3.7 is required

import sys

assert sys.version_info >= (3, 7)

Python需要为3.7及以上版本,否则会抛出AssertionError。

2.确保程序包版本

检查安装的程序包版本,如TensorFlow。

import tensorflow as tf

tf.__version__'2.0.0'

确保项目是由TensorFlow2.0及以上版本运行的,否则会抛出AssertionError。

# TensorFlow ≥2.0 is required

import tensorflow as tf

assert tf.__version__ >= "2.0"

3.避免绘制模糊图像

JuypterNotebook中的默认绘图看起来有些模糊。例如,一张查找缺失值的简单热图。(https://towardsdatascience.com/using-pandas-pipe-function-to-improve-code-readability-96d66abfaf8)

import seaborn as sns

import matplotlib.pyplot as plt

%matplotlib inline# Default figure format png

sns.heatmap(df.isnull(),

yticklabels=False,

cbar=False,

cmap='viridis')

数据科学项目7个设置:确保依赖关系、保持输出稳定_第2张图片

默认图像看起来很模糊

由上图可以看出,文本很模糊,Cabin栏中的缺失值过于拥挤,Embarked栏中的缺失值无法识别。

要解决这个问题,可在%matplotlib inline之后使用%config InlineBackend.figure_format='retina'或 %configInlineBackend.figure_format = 'svg',即:

%matplotlib inline

%config InlineBackend.figure_format = 'retina' # or 'svg'sns.heatmap(df.isnull(),

yticklabels=False,

cbar=False,

cmap='viridis')

图片格式设置为retina或svg

数据科学项目7个设置:确保依赖关系、保持输出稳定_第3张图片

与先前的图片比较,上图更加清晰,Embarked栏中的缺失值也能成功识别。

4.在不同运行中保持输出稳定

数据科学项目中很多地方都在使用随机数字。例如:

· 来自Scikit-Learn的 train_test_split()

· 用于初始化权重的np.random.rand()

若未重置随机种子,则每次调用都会出现不同的数字:

>>> np.random.rand(4)

array([0.83209492, 0.10917076, 0.15798519, 0.99356723])

>>> np.random.rand(4)

array([0.46183001, 0.7523687 , 0.96599624, 0.32349079])

np.random.seed(0)使随机数字可预测:

>>> np.random.seed(0)

>>> np.random.rand(4)

array([0.5488135 , 0.71518937, 0.60276338, 0.54488318])

>>> np.random.seed(0)

>>> np.random.rand(4)

array([0.5488135 , 0.71518937, 0.60276338, 0.54488318])

如果(每次)都重置随机种子,那么每次都会出现相同的数据组。因此,项目能在不同运行中保持输出稳定。

5.多单元输出

默认情况下,JupyterNotebook不能在同一单元中输出多种结果。要输出多种结果,可使用IPython重新配置shell。

from IPython.core.interactiveshell import InteractiveShell

InteractiveShell.ast_node_interactivity = "all"

数据科学项目7个设置:确保依赖关系、保持输出稳定_第4张图片

6.将图片保存到文件

Matplotlib能通过savefig()方法保存图片,但如果给定路径不存在则会引发错误。

plt.savefig('./figures/my_plot.png')FileNotFoundError: [Errno 2] Nosuch file or directory: './figures/my_plot.png'

最好的做法是将所有图片都放到一个地方,如工作区的figures文件夹。可使用OS GUI(操作系统界面)或是在JupyterNotebook中运行logic指令,来手动创建一个figures文件夹,但是最好创建一个小函数来实现该操作。

当需要一些自定义图形设置或附加子文件夹来分组图形时,这种方法尤其适用。以下是将图片保存到文件的函数:

import os

%matplotlib inline

import matplotlib.pyplot as plt# Where to save the figures

PROJECT_ROOT_DIR = "."

SUB_FOLDER = "sub_folder" #a sub-folder

IMAGES_PATH = os.path.join(PROJECT_ROOT_DIR, "images", SUB_FOLDER)defsave_fig(name, images_path=IMAGES_PATH, tight_layout=True,extension="png", resolution=300):

if not os.path.isdir(images_path):

os.makedirs(images_path)

path = os.path.join(images_path, name+ "." + extension)

print("Saving figure:",name)

if tight_layout:

plt.tight_layout()

plt.savefig(path, format=extension,dpi=resolution)

现在调用save_fig('figure_name'),会在工作区中创建一个images/sub_folder目录,图片以“figure_name.png”名称被保存到目录中。此外,还提供了三个最常用的设置:

· tight_layout 能自动调整子图填充

· extension 能以多种格式保存图片

· resolution 可设置图片分辨率

数据科学项目7个设置:确保依赖关系、保持输出稳定_第5张图片

数据科学项目7个设置:确保依赖关系、保持输出稳定_第6张图片

7.下载数据(并解压)

处理网络数据对于数据科学工作者是常事。可以使用浏览器下载数据,并运行指令来解压文件,但最好的是创建一个小函数来执行该操作。当数据需要定期更改时,这一点尤其重要。

编写一个小脚本,在获取最新数据时运行(也可以设置一个定期自动执行的计划工作)即可。如果需要在多台机器上安装数据集,自动化抓取数据流程也十分有用。

以下是下载并解压数据的函数:

import os

import tarfile

import zipfile

import urllib

# Where to save the data

PROJECT_ROOT_DIR = "."

SUB_FOLDER = "group_name"

LOCAL_PATH = os.path.join(PROJECT_ROOT_DIR, "datasets", SUB_FOLDER)defdownload(file_url, local_path = LOCAL_PATH):

if not os.path.isdir(local_path):

os.makedirs(local_path)

# Download file

print(">>>downloading")

filename = os.path.basename(file_url)

file_local_path =os.path.join(local_path, filename)

urllib.request.urlretrieve(file_url,file_local_path)

# untar/unzip file

if filename.endswith("tgz")or filename.endswith("tar.gz"):

print(">>>unpacking file:", filename)

tar =tarfile.open(file_local_path, "r:gz")

tar.extractall(path = local_path)

tar.close()

eliffilename.endswith("tar"):

print(">>> unpackingfile:", filename)

tar =tarfile.open(file_local_path, "r:")

tar.extractall(path = local_path)

tar.close()

eliffilename.endwith("zip"):

print(">>>unpacking file:", filename)

zip_file = zipfile.ZipFile(file_local_path)

zip_file.extractall(path =local_path)

zip_file.close()

print("Done")

现在调用download("http://a_valid_url/housing.tgz"),会在工作区创建一个datasets/group_name目录,下载housing.tgz,并从该目录中提取出housing.csv ,这个小函数也能用于CSV和文本文件。

你可能感兴趣的:(机器学习实战,python,大数据,数据仓库)