在特征变换中,我们做了以下几种处理
在现实世界中,通常不可能找到完整且没有缺失值或NaN值的数据。因此,我们可以删除包含这些缺失值的行,或者执行插补(填充缺失值)以确保 ML 模型处理这些数据。
要从 pandas 数据框中删除行,我们使用以下命令
#Assuming data is store in df dataframe
df.isnull().sum()
#This returns the count of all the missing values in the columns
#In order to remove the missing values, we use drop function
df.drop(inplace=True)
它是用各种插补策略(例如均值、中位数和众数插补)替换缺失值的过程。然而,也可以通过根据领域知识为数据分配值来随机进行插补。
def mean_imputation(data, inplace=False):
"""
This function replaces the missing values in the data with the average (mean) value of the data.
Parameters:
- data: The input data with missing values.
- inplace: A boolean indicating whether to modify the data in place or return a new copy.
If True, the missing values are filled in the original data; if False, a new copy with filled values is returned.
(Default: False)
"""
data.fillna(data.mean(), inplace=inplace)
def median_imputation(data, inplace=False):
"""
This function replaces the missing values in the data with the median value of the data.
Parameters:
- data: The input data with missing values.
- inplace: A boolean indicating whether to modify the data in place or return a new copy.
If True, the missing values are filled in the original data; if False, a new copy with filled values is returned.
(Default: False)
"""
data.fillna(data.median(), inplace=inplace)
def mode_imputation(data, inplace=False):
"""
This function replaces the missing values in the data with the mode value of the data.
Parameters:
- data: The input data with missing values.
- inplace: A boolean indicating whether to modify the data in place or return a new copy.
If True, the missing values are filled in the original data; if False, a new copy with filled values is returned.
(Default: False)
"""
data.fillna(data.mode(), inplace=inplace)
替代方法
threshold = 0.7
#Dropping columns with missing value rate higher than threshold
data = data[data.columns[data.isnull().mean() < threshold]]
#Dropping rows with missing value rate higher than threshold
data = data.loc[data.isnull().mean(axis=1) < threshold]
我们还可以使用预测插补或使用机器学习模型的插补
在这种方法中,不是使用均值、中位数或众数等汇总统计来填充缺失值,而是使用机器学习模型根据在没有缺失值的剩余特征中观察到的模式来预测缺失值。
One-hot 编码是一种用于将分类变量表示为二进制向量的技术。它通常用于机器学习和数据预处理任务。one-hot 编码过程将每个分类值转换为一个新的二进制特征,其中值的存在或不存在分别由 1 或 0 表示。
此方法将难以理解算法的分类数据更改为数字格式,并使您能够对分类数据进行分组而不会丢失任何信息。
一种热门编码技术
在 one-hot 编码中,分类列中的每个不同值都由单独的二进制列表示。这意味着对于列中的 N 个不同值,将创建 N 个二进制列,每列代表特定值的存在或不存在。这种方法确保每个类别都有自己独立的二进制特征,使机器学习算法更容易理解和处理分类数据。
encoded_columns = pd.get_dummies(data['column'])
data = data.join(encoded_columns).drop('column', axis=1)
异常值检测是识别数据集中明显偏离大多数数据点的观测值的过程。
检测异常值在数据分析和机器学习中非常重要,因为它们会对模型的结果和性能产生重大影响。
统计方法:
import numpy as np
def zscore_outlier_detection(data, threshold=3):
z_scores = (data - np.mean(data)) / np.std(data)
outliers = np.abs(z_scores) > threshold
return outliers
from scipy.stats import median_absolute_deviation
def modified_zscore_outlier_detection(data, threshold=3.5):
median = np.median(data)
median_abs_dev = median_absolute_deviation(data)
modified_z_scores = 0.6745 * (data - median) / median_abs_dev
outliers = np.abs(modified_z_scores) > threshold
return outliers
def tukey_fences_outlier_detection(data, k=1.5):
q1 = np.percentile(data, 25)
q3 = np.percentile(data, 75)
iqr = q3 - q1
lower_fence = q1 - k * iqr
upper_fence = q3 + k * iqr
outliers = (data < lower_fence) | (data > upper_fence)
return outliers
from sklearn.neighbors import NearestNeighbors
def knn_outlier_detection(data, k=5, threshold=1.5):
neigh = NearestNeighbors(n_neighbors=k)
neigh.fit(data)
distances, _ = neigh.kneighbors(data)
median_distance = np.median(distances[:, -1])
normalized_distances = distances[:, -1] / median_distance
outliers = normalized_distances > threshold
return outliers
from sklearn.neighbors import LocalOutlierFactor
def lof_outlier_detection(data, contamination=0.1):
lof = LocalOutlierFactor(n_neighbors=20, contamination=contamination)
outliers = lof.fit_predict(data) == -1
return outliers
处理异常值的另一个选择是限制它们而不是丢弃它们。
#Capping the outlier rows with percentiles
upper_lim = data['column'].quantile(.95)
lower_lim = data['column'].quantile(.05)
data.loc[(df[column] > upper_lim),column] = upper_lim
data.loc[(df[column] < lower_lim),column] = lower_lim
特征缩放是机器学习中的预处理步骤,涉及将数据集的数值特征转换为通用尺度。这很重要,因为当特征规模相似时,许多机器学习算法表现更好或收敛得更快。
特征缩放的几种方法:
此方法将特征缩放至零均值和单位方差。它减去特征的平均值并除以标准差。标准化的公式为: x_scaled = (x — Mean(x)) / std(x)
标准化可确保每个特征的平均值为 0且标准差为 1,从而使所有特征具有相同的量级。
x = 观察值,μ = 平均值,σ = 标准差
from sklearn.preprocessing import StandardScaler
# Create an instance of StandardScaler
scaler = StandardScaler()
# Assuming your data is stored in a 2D array or dataframe X
# Fit the scaler to your data
scaler.fit(X)
# Transform the data
X_scaled = scaler.transform(X)
# The transformed data is now normalized using Z-score normalization
此方法将特征缩放到指定范围(通常在 0 到 1 之间)。它减去特征的最小值并除以范围(最大值减去最小值)。最小-最大缩放的公式为: x_scaled = (x — min(x)) / (max(x) — min(x))
from sklearn.preprocessing import MinMaxScaler
import numpy as np
# 4 samples/observations and 2 variables/features
data = np.array([[4, 6], [11, 34], [10, 17], [1, 5]])
# create scaler method
scaler = MinMaxScaler(feature_range=(0,1))
# fit and transform the data
scaled_data = scaler.fit_transform(data)
print(scaled_data)
# [[0.3 0.03448276]
# [1. 1. ]
# [0.9 0.4137931 ]
# [0. 0. ]]
此方法将特征缩放到范围 [-1, 1]。它将每个特征值除以该特征中的最大绝对值。max-abs 缩放的公式为: x_scaled = x / max(abs(x))
from sklearn.preprocessing import MaxAbsScaler
# Create an instance of MaxAbsScaler
scaler = MaxAbsScaler()
# Assuming your data is stored in a 2D array or dataframe X
# Fit the scaler to your data
scaler.fit(X)
# Transform the data
X_scaled = scaler.transform(X)
# The transformed data is now scaled using max-abs scaling
特征缩放方法的选择取决于数据集的特征和所使用的机器学习算法的要求。