01 起
机器学习分为有监督学习和无监督学习,在有监督学习中,我们需要将样本分为训练集和测试集。其中,训练集用于训练模型,这个集合中的样本数越大越好,测试集用于测试训练出的模型的效果。
在机器学习过程中,对于训练集和测试集,我们会:
- 将训练集的特征(X)和特征对应的标签(Y)输入到模型,去训练模型参数;
- 模型训练完成后,我们将测试集的特征(X)输入到模型中,让模型去预测这些测试集的标签(Y_predict);
- 最后我们将这些预测的标签和测试集真实标签(Y)进行比较,计算准确率,就可以评估训练模型的效果了。
所以,在有监督学习中,拿到样本后,我们需要将样本分割为训练集和测试集,怎么做呢?
在sklearn包中有写好的函数用于分割训练集和测试集,但是今天我们就来自己写一个分割函数吧,毕竟分割的原则和方法不自己操作一波是不会有太多体会的。
02 分割原则
前一节我们讲解了训练集和测试集的用处,他们都来自于同一个样本集,那么你再想想,分割的原则到底是什么呢?
分割原则:
- 随机分割
- 分割比例可选
- 训练集比例大于测试集
好了,基于上述分割原则,我们用python3来写一个分割函数吧!
03 分割函数
效果
输入总样本的特征集和标签集,输入分割比例、指定随机数种子,输出按分割比例分割好的训练集和测试集
输入
- x-样本特征集,dataframe格式
- y-样本对应分类标签,dataframe格式
- random_seed-随机数种子,确保每次执行同样参数的函数后,得到的分割样本不变,默认7
- test_size-测试集占总样本比例,如20%表示为0.2,默认0.25
输出
X_train,X_test,Y_train,Y_test(array格式)
def train_test_split(x,y,test_size=None,random_seed=None):
import pandas as pd
import numpy as np
if test_size==None:
test_size=0.25
if random_seed==None:
random_seed=7
#根据随机数种子,将x索引打乱
np.random.seed(random_seed)
indices=np.random.permutation(len(x))
#根据设定的测试集样本比例,划分训练集、测试集
cut=int(len(x)*(1-test_size))
x_train=x.iloc[indices[:cut]]
y_train=y.iloc[indices[:cut]]
x_test=x.iloc[indices[cut:]]
y_test=y.iloc[indices[cut:]]
# 将dataframe格式的数据转换为numpy array格式,便于调用函数计算
x_train=np.array(x_train)
y_train=np.array(y_train)
x_test=np.array(x_test)
y_test=np.array(y_test)
# 将labels的形状设置为(130,)
y_train.shape=(cut,)
return x_train,x_test,y_train,y_test
04 测试函数
写好了分割函数,让我们来测试一波,看看分割函数的效果吧。
测试使用的样本是鸢尾花数据集,长成这样,共有150条数据:我们将此样本带入分割函数进行分割,分割比例为20%,即,训练集有120条,测试集有30条。
iris=pd.read_csv("E:\python\practice\iris.txt")
iris_x=iris.iloc[:,[0,1,2,3]]
iris_y=iris.iloc[:,[4]]
iris_x_train,iris_x_test,iris_y_train,iris_y_test=train_test_split(iris_x,iris_y,0.2,32)
iris_y_train.shape
输出为:
成功!
05 总结
今天我们自己写了一个函数,实现训练集和测试集的分割,此分割函数为随机分配,同时可以指定分割比例。
怎么样,造轮子是不是可以帮助我们更深刻地理解原理~~