数据预处理代码分享——机器学习与数据挖掘

数据预处理分为6步:


第1步:导入NumPy和Pandas库。NumPy和Pandas是每次都要导入的库,其中Numpy包含了数学计算函数,Pnadas是一个用于导入和管理数据集(Data Sets)的类库。


第2步:导入数据集。数据集一般都是.csv格式,csv文件以文本形式存储数据。每一行数据是一条记录。我们使用pandas类库的read_csv方法读取本地的csv文件作为一个dataframe。然后从datafram中分别创建自变量和因变量的矩阵和向量。


第3步:处理缺失的数据。我们得到的数据很少是完整的。数据可能因为各种原因丢失,为了不降低机器学习模型的性能,需要处理数据。我们可以用整列的平均值或者中间值替换丢失的数据。我们用sklearn.preprocessing库中的Inputer类完成这项任务。


第4步:对分类数据进行编码。分类数据指的是含有标签值而不是数字值得变量。取值范围通常是固定的。例如“YES”和“NO”不能用于模型的数学计算,所以需要编码成数字。为数显这一功能,我们从sklearn.preprocessing库中导入LabelEncoder类。


第5步:拆分数据集为测试集合和训练集合。把数据集拆分成两个,一个是用来训练模型的训练集合,另一个是用来验证模型的测试集合。两种比例一般是80:20。我们导入sklearn.crossvalidation库中的train_test_split()方法。


第6步:特征缩放。大部分模型算法使用两点间的欧式近距离表示,但此特征在幅度、单位和范围姿态问题上变化很大。在距离计算中,高幅度的特征比低幅度特征权重大。可用特征标准化或Z值归一化解决。导入sklearn.preprocessing库的StandardScalar类。



代码如下: 视频教学QQ群    519970686

1Step1: 导入类库

2

3importnumpyasnp

4importpandasaspd

5

6Step2: 导入数据集

7dataset = pd.read_csv('Data.csv')

8X = dataset.iloc[ : , :-1].values

9Y = dataset.iloc[ : ,3].values

10

11Step3: 处理缺失的数据

12fromsklearn.preprocessingimportImputer

13imputer = Imputer(missing_values ="NaN", strategy ="mean", axis =0)

14imputer = imputer.fit(X[ : ,1:3])

15X[ : ,1:3] = imputer.transform(X[ : ,1:3])

16

17Step4:编码分类数据

18fromsklearn.preprocessingimportLabelEncoder, OneHotEncoder

19labelencoder_X = LabelEncoder()

20X[ : ,0] = labelencoder_X.fit_transform(X[ : ,0])

21Creating a dummy variable

22

23onehotencoder = OneHotEncoder(categorical_features = [0])

24X = onehotencoder.fit_transform(X).toarray()

25labelencoder_Y = LabelEncoder()

26Y =  labelencoder_Y.fit_transform(Y)

27

28Step5: 切分数据集成训练数据和测试数据

29fromsklearn.cross_validationimporttrain_test_split

30X_train, X_test, Y_train, Y_test = train_test_split( X , Y , test_size =0.2, random_state =0)

31

32Step6: 特征缩放

33fromsklearn.preprocessingimportStandardScaler

34sc_X = StandardScaler()

35X_train = sc_X.fit_transform(X_train)

36X_test = sc_X.fit_transform(X_test)


数据预处理代码分享——机器学习与数据挖掘_第1张图片

你可能感兴趣的:(数据预处理代码分享——机器学习与数据挖掘)