在使用机器学习训练模型算法的过程中,为提高模型的泛化能力、防止过拟合等目的,需要将整体数据划分为训练集和测试集两部分,训练集用于模型训练,测试集用于模型的验证。此时,使用train_test_split函数可便捷高效的实现数据训练集与测试集的划分。
train_test_split
函数来自scikit-learn
库(也称为sklearn),安装命令:
pip install sklearn
函数的导入:
from sklearn.model_selection import train_test_split
def train_test_split(*arrays,test_size=None,train_size=None,random_state=None,
shuffle=True,stratify=None,):
- *arrays: 单个数组或元组,表示需要划分的数据集。如果传入多个数组,则必须保证每个数组的第一维大小相同。
- test_size: 测试集的大小(占总数据集的比例,值为0.0-1.0,表示测试集占总样本比例)。默认值为0.25,即将传入数据的25%作为测试集。
- train_size: 训练集的大小(占总数据集的比例,值为0.0-1.0,表示训练集占总样本比例)。默认值为None,此时和test_size互补,即训练集的大小为(1-test_size)。
- random_state: 随机数种子。可以设置一个整数,用于复现结果。默认为None。其实是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。(比如每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但填0或不填,每次都会不一样。)
- shuffle: 是否随机打乱数据。默认为True。
- stratify: 可选参数,用于进行分层抽样。传入标签数组,保证划分后的训练集和测试集中各类别样本比例与原始数据集相同。默认为None,即普通的随机划分。(此参数作用是保持测试集与整个数据集里的数据分类比例一致,比如有1000个数据,800个属于A类,200个属于B类。设置stratify = y_lable,test_size=0.25,split之后数据组成如下:training: 750个数据,其中600个属于A类,150个属于B类;testing: 250个数据,其中200个属于A类,50个属于B类)
该函数返回一个元组
(X_train, X_test, y_train, y_test)
,其中X_train
表示训练集的特征数据,X_test
表示测试集的特征数据,y_train
表示训练集的标签数据,y_test
表示测试集的标签数据。
test_size
和train_size
必须至少有一个设置为非None
。- 当传入多个数组时,请确保每个数组的第一维大小相同。
- random_state要设置一个整数值,从而保证每次获取相同的训练集和测试集
- 当使用分层抽样时,请确保传入的标签数组是正确的。
from sklearn import datasets
from sklearn.model_selection import train_test_split
# 加载Iris数据集
iris = datasets.load_iris()
X = iris.data
y = iris.target
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=1)
print(X_train)
print(X_test)
结果展示:
X_train=[[6.5 2.8 4.6 1.5]
[6.7 2.5 5.8 1.8]
[6.8 3. 5.5 2.1]
[5.1 3.5 1.4 0.3]
[6. 2.2 5. 1.5]
......此处数据省略
[4.9 3.6 1.4 0.1]]
X_test=[[5.8 4. 1.2 0.2]
[5.1 2.5 3. 1.1]
[6.6 3. 4.4 1.4]
[5.4 3.9 1.3 0.4]
[7.9 3.8 6.4 2. ]
......此处数据省略
[5.2 3.4 1.4 0.2]]
在/opt/dataset下存放着水果图片的分类数据文件夹(文件夹名称为标签),每个文件夹下存储着多张对应标签的水果图片,如下所示:
以apple文件夹为例,图片内容如下:
数据加载和分割数据集的代码如下:
from torchvision.datasets import ImageFolder
from sklearn.model_selection import train_test_split
# 图像变换
transform = transforms.Compose([transforms.Resize((224, 224)),
transforms.ToTensor(),
transforms.Normalize(
mean=[0.5, 0.5, 0.5],
std=[0.5, 0.5, 0.5]
), ])
# 加载数据集
dataset = ImageFolder('/opt/dataset', transform=transform)
# 划分训练集与测试集
train_dataset, valid_dataset = train_test_split(dataset, test_size=0.2, random_state=10)
batch_size = 64
train_loader = DataLoader(dataset=train_dataset, batch_size=batch_size, shuffle=True, drop_last=True)
test_loader = DataLoader(dataset=valid_dataset, batch_size=batch_size, shuffle=True, drop_last=True)