【特征重要性揭秘:为什么同一个数据集会有不同结果】

文章目录

    • 特征重要性概要
    • 为什么特征重要性分析很重要
    • 特征重要性分析方法
    • 内置特征重要性(coef_或feature_importances_)
    • Leave-one-out
    • 相关性分析
    • 递归特征消除 Recursive Feature Elimination
    • XGBoost特性重要性
    • 主成分分析 PCA
    • 方差分析 ANOVA
    • 卡方检验(Chi-Square Test)
    • 为什么不同的方法会检测到不同的特征?

特征重要性概要

探寻特征选择的复杂世界:解析不同方法背后的差异与奥秘

在当今数据驱动的世界中,特征选择是构建高性能机器学习模型的关键步骤之一。然而,当我们深入研究不同特征重要性方法时,我们会发现一个引人入胜的现象:不同的方法可能会得出截然不同的结论。为什么这种差异存在?这背后隐藏着怎样的奥秘?

方法多样性:量变引发质变

首先,特征选择的多样性源于方法本身的多样性。每种方法都有其独特的视角和计算方式。有些方法关注特征之间的线性或非线性关系,而另一些方法则更注重特征对模型精度的影响。例如,XGBoost和随机森林等树模型倾向于捕捉特征间的非线性关系,而PCA则着眼于数据的方差解释。

模型特性:模型差异导致结果差异

其次,不同模型对特征的选择有着不同的倾向性。线性模型更容易捕捉线性关系,而树模型则偏向选择接近根节点的特征。这种倾向性使得特定模型更容易受到某些特征的影响,而其他模型则可能对这些特征视而不见。

交互作用:特征间相互影响的复杂性

特征之间的交互作用也是导致不同方法得出不同结论的因素之一。有些特征选择方法可以捕捉到特征间的相互影响,而其他方法则难以涵盖这种关系。这种复杂性使得我们必须仔细选择适用于具体问题的特征选择方法,以充分挖掘数据的潜力。

数据的不稳定性与超参数影响

此外,数据本身的不稳定性也是造成特征选择结果差异的原因之一。在不同数据子集上运行相同的特征选择算法,可能会得到截然不同的结果。同时,超参数的选择,比如PCA的主成分数量或树模型的深度,也会对结果产生影响,增加了结果的不确定性。

为什么特征重要性分析很重要

特征重要性分析在机器学习中至关重要。当处理包含数十个甚至数百个特征的数据集时,每个特征都可能对模型性能产生影响。然而,并非所有特征都同样重要。某些特征可能是多余的或不相关的,它们增加了模型的复杂性,可能导致过拟合问题。

特征重要性分析的目的在于识别并聚焦于最具信息量的特征,带来以下几个重要优势:

  1. 改进的模型性能: 通过选择最关键的特征,模型可以更准确地捕捉数据的模式,提高预测性能。

  2. 减少过度拟合: 剔除不重要的特征可以减少模型对训练数据的过度拟合,提高模型的泛化能力,使其在未见过的数据上表现更好。

  3. 更快的训练和推理: 使用较少的特征进行训练和推理会显著提高计算效率,缩短模型训练和预测的时间。

  4. 增强的可解释性: 精选特征可以使模型更易于理解和解释。解释模型的特征重要性有助于向非专业人士解释模型的决策依据。

因此,特征重要性分析不仅可以提高模型的性能,还可以使模型更具可解释性,帮助数据科学家和决策者更好地理解数据,并作出基于数据的决策。

特征重要性分析方法

1、排列重要性 PermutationImportance
该方法会随机排列每个特征的值,然后监控模型性能下降的程度。如果获得了更大的下降意味着特征更重要。

导入必要的库和数据集:

from sklearn.datasets import load_breast_cancer
from sklearn.ensemble import RandomForestClassifier
from sklearn.inspection import permutation_importance
from sklearn.model_selection import train_test_split
import matplotlib.pyplot as plt

cancer = load_breast_cancer()

数据集划分: 将数据集划分为训练集(X_train, y_train)和测试集(X_test, y_test)。

X_train, X_test, y_train, y_test = train_test_split(cancer.data, cancer.target, random_state=1)

随机森林模型的建立和训练:

rf = RandomForestClassifier(n_estimators=100, random_state=1)
rf.fit(X_train, y_train)

计算排列重要性: 使用permutation_importance函数来计算特征的排列重要性,它通过随机打乱特征的值,观察模型性能的变化来评估特征的重要性。

result = permutation_importance(rf, X_test, y_test, n_repeats=10, random_state=1, scoring='accuracy')

提取特征重要性: 从排列重要性的结果中提取特征的平均重要性值。

importances = result.importances_mean

可视化特征重要性: 使用条形图将特征的重要性可视化。

plt.bar(range(len(importances)), importances)
plt.xlabel('Feature Index')
plt.ylabel('Permutation Importance')
plt.show()

如果使用不同的数据集,只需替换第2步中的cancer.data和cancer.target为新数据集的特征和目标变量。确保新数据集的特征和目标变量的格式与原代码中的数据集格式相同。然后,运行代码即可对新数据集进行排列重要性分析。
全部代码:

from sklearn.datasets import load_breast_cancer
from sklearn.ensemble import RandomForestClassifier
from sklearn.inspection import permutation_importance
from sklearn.model_selection import train_test_split
import matplotlib.pyplot as plt

cancer = load_breast_cancer()

X_train, X_test, y_train, y_test = train_test_split(cancer.data, cancer.target, random_state=1)

rf = RandomForestClassifier(n_estimators=100, random_state=1)
rf.fit(X_train, y_train)

baseline = rf.score(X_test, y_test)
result = permutation_importance(rf, X_test, y_test, n_repeats=10, random_state=1, scoring='accuracy')

importances = result.importances_mean

# Visualize permutation importances
plt.bar(range(len(importances)), importances)
plt.xlabel('Feature Index')
plt.ylabel('Permutation Importance')
plt.show()

【特征重要性揭秘:为什么同一个数据集会有不同结果】_第1张图片

内置特征重要性(coef_或feature_importances_)

一些模型,如线性回归和随机森林,可以直接输出特征重要性分数。这些显示了每个特征对最终预测的贡献。

from sklearn.datasets import load_breast_cancer
from sklearn.ensemble import RandomForestClassifier
import matplotlib.pyplot as plt
X, y = load_breast_cancer(return_X_y=True)

rf = RandomForestClassifier(n_estimators=100, random_state=1)
rf.fit(X, y)

importances = rf.feature_importances_

# Plot importances
plt.bar(range(X.shape[1]), importances)
plt.xlabel('Feature Index')
plt.ylabel('Feature Importance')
plt.show()


如果想要将这段代码应用于不同的数据集,只需要替换以下两行代码中的X和y:

X, y = load_breast_cancer(return_X_y=True)

将这两行代码替换为新数据集的特征矩阵(X)和目标变量(y)。确保新的数据集格式和原始代码中的数据集格式一致。例如,如果新数据集特征矩阵命名为X_new,目标变量命名为y_new,则替换代码如下:

X_new, y_new = load_new_dataset(return_X_y=True)

确保load_new_dataset函数正确加载了新数据集。然后,运行代码即可对新数据集进行随机森林特征重要性分析。记得将n_estimators和random_state等参数根据需要进行调整。
【特征重要性揭秘:为什么同一个数据集会有不同结果】_第2张图片

Leave-one-out

迭代地每次删除一个特征并评估准确性。

from sklearn.datasets import load_breast_cancer
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import accuracy_score
import matplotlib.pyplot as plt
import numpy as np

# Load sample data
X, y = load_breast_cancer(return_X_y=True)

# Split data into train and test sets
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=1)

# Train a random forest model
rf = RandomForestClassifier(n_estimators=100, random_state=1)
rf.fit(X_train, y_train)

# Get baseline accuracy on test data
base_acc = accuracy_score(y_test, rf.predict(X_test))

# Initialize empty list to store importances
importances = []

# Iterate over all columns and remove one at a time
for i in range(X_train.shape[1]):
    X_temp = np.delete(X_train, i, axis=1)
    rf.fit(X_temp, y_train)
    acc = accuracy_score(y_test, rf.predict(np.delete(X_test, i, axis=1)))
    importances.append(base_acc - acc)

# Plot importance scores
plt.bar(range(len(importances)), importances)
plt.show()

如果想要将这段代码应用于不同的数据集,只需要替换以下两行代码中的X和y:

X, y = load_breast_cancer(return_X_y=True)

将这两行代码替换为新数据集的特征矩阵(X)和目标变量(y)。确保新的数据集格式和原始代码中的数据集格式一致。例如,如果新数据集特征矩阵命名为X_new,目标变量命名为y_new,则替换代码如下:

X_new, y_new = load_new_dataset(return_X_y=True)

确保load_new_dataset函数正确加载了新数据集。
【特征重要性揭秘:为什么同一个数据集会有不同结果】_第3张图片

相关性分析

计算各特征与目标变量之间的相关性。相关性越高的特征越重要。

# 导入所需库和数据集
import pandas as pd
from sklearn.datasets import load_breast_cancer
import matplotlib.pyplot as plt
# 加载乳腺癌数据集,并将特征矩阵X和目标变量y分开
X, y = load_breast_cancer(return_X_y=True)

# 将特征矩阵X转换为DataFrame,列名为0到29,然后添加目标变量列'y'
df = pd.DataFrame(X, columns=range(30))
df['y'] = y

# 计算各特征与目标变量的绝对值相关性,并按降序排序
correlations = df.corrwith(df.y).abs()
correlations.sort_values(ascending=False, inplace=True)

# 可视化特征与目标变量的相关性,绘制条形图
correlations.plot.bar()

# 显示条形图
plt.xlabel('Feature Index')
plt.ylabel('Absolute Correlation with Target')
plt.title('Correlation between Features and Target Variable')
plt.show()

【特征重要性揭秘:为什么同一个数据集会有不同结果】_第4张图片

递归特征消除 Recursive Feature Elimination

递归地删除特征并查看它如何影响模型性能。删除时会导致更大下降的特征更重要。

# 导入所需库和数据集
from sklearn.ensemble import RandomForestClassifier
from sklearn.feature_selection import RFE
import pandas as pd
from sklearn.datasets import load_breast_cancer
import matplotlib.pyplot as plt

# 加载乳腺癌数据集,并将特征矩阵X和目标变量y分开
X, y = load_breast_cancer(return_X_y=True)

# 将特征矩阵X转换为DataFrame,列名为0到29,然后添加目标变量列'y'
df = pd.DataFrame(X, columns=range(30))
df['y'] = y

# 初始化随机森林分类器
rf = RandomForestClassifier()

# 使用递归特征消除(RFE)选择最重要的10个特征
rfe = RFE(rf, n_features_to_select=10)
rfe.fit(X, y)

# 输出特征的排名,数值越小越重要,排名越高越不重要
print(rfe.ranking_)

【特征重要性揭秘:为什么同一个数据集会有不同结果】_第5张图片

这段代码的主要目的是使用递归特征消除(RFE)方法,结合随机森林分类器,选择乳腺癌数据集中最重要的10个特征。递归特征消除通过反复训练模型,然后消除当前模型中排名最低的特征,直到选定指定数量的特征为止。在这里,代码输出了各特征的排名,数值越小表示该特征越重要。这种方法有助于选择最具影响力的特征,以提高模型性能和减少维度。

XGBoost特性重要性

计算一个特性用于跨所有树拆分数据的次数。更多的分裂意味着更重要。

# 导入所需库和数据集
import xgboost as xgb
import pandas as pd
from sklearn.datasets import load_breast_cancer
import matplotlib.pyplot as plt

# 加载乳腺癌数据集,并将特征矩阵X和目标变量y分开
X, y = load_breast_cancer(return_X_y=True)

# 将特征矩阵X转换为DataFrame,列名为0到29,然后添加目标变量列'y'
df = pd.DataFrame(X, columns=range(30))
df['y'] = y

# 初始化并训练XGBoost分类器
model = xgb.XGBClassifier()
model.fit(X, y)

# 获取特征重要性值
importances = model.feature_importances_

# 将特征重要性值转换为Pandas的Series对象,索引为特征的索引
importances = pd.Series(importances, index=range(X.shape[1]))

# 可视化特征重要性,绘制条形图
importances.plot.bar()

# 设置图表标签
plt.xlabel('Feature Index')
plt.ylabel('Feature Importance')
plt.title('XGBoost Feature Importance')
plt.show()

这段代码的目的是使用XGBoost分类器对乳腺癌数据集进行训练,并获取特征的重要性值。随后,代码将这些特征重要性值可视化为条形图。在图表上,x轴表示特征的索引,y轴表示特征的重要性。

【特征重要性揭秘:为什么同一个数据集会有不同结果】_第6张图片

主成分分析 PCA

主成分分析(PCA,Principal Component Analysis)是一种用于降维和数据压缩的线性变换技术。其主要目标是通过将原始特征转换为一组新的、线性无关的特征(即主成分),以尽量保留原始数据的信息。这些主成分按照其解释方差的大小排序,通常,前面的主成分能够解释数据中大部分的变异性。

在PCA中,数据的方差最大的方向被称为第一个主成分,第二大的方向是第二个主成分,以此类推。PCA确保新的特征(主成分)之间是不相关的,这样每个主成分都捕获了数据中不同方向的变化。

解释方差比是指每个主成分所解释的方差在总方差中的比例。当我们查看每个主成分的解释方差比时,我们能够了解每个主成分在保留数据信息方面的贡献程度。通常,我们可以选择保留解释方差比较高(如95%或99%)的前几个主成分,从而实现数据的降维。

在PCA中,前几个主成分上的特征权重较大,说明这些特征在数据中具有较高的方差,因此,在这些主成分上具有较高的负载。这些特征对于数据的变异性贡献较大,因此在分析和建模过程中更为重要。

# 导入所需库和数据集
from sklearn.decomposition import PCA
import pandas as pd
from sklearn.datasets import load_breast_cancer
import matplotlib.pyplot as plt

# 加载乳腺癌数据集,并将特征矩阵X和目标变量y分开
X, y = load_breast_cancer(return_X_y=True)

# 将特征矩阵X转换为DataFrame,列名为0到29,然后添加目标变量列'y'
df = pd.DataFrame(X, columns=range(30))
df['y'] = y

# 初始化PCA对象并拟合数据
pca = PCA()
pca.fit(X)

# 绘制解释方差比
plt.bar(range(pca.n_components_), pca.explained_variance_ratio_)
plt.xlabel('PCA components')
plt.ylabel('Explained Variance Ratio')
plt.title('Explained Variance Ratio by PCA Components')
plt.show()

【特征重要性揭秘:为什么同一个数据集会有不同结果】_第7张图片

方差分析 ANOVA

方差分析(ANOVA,Analysis of Variance)是一种统计方法,用于比较两个或两个以上组别的均值是否具有统计学差异。在特征选择中,方差分析被用于衡量每个特征与目标变量之间的相关性程度。具体来说,使用ANOVA可以得到每个特征的F统计量(F-value),也就是f_classif()函数返回的值。F统计量表示了特征的方差在各个类别之间和各个类别内部的变化程度。F值越高,说明特征在不同类别之间的均值差异较大,也就是说,特征与目标的相关性较强。

在特征选择中,我们通常计算每个特征的F值,并结合其他特征选择方法,如递归特征消除(RFE)或基于阈值的选择,来确定哪些特征是最具预测性和相关性的。

# 导入所需库和数据集
from sklearn.feature_selection import f_classif
import pandas as pd
from sklearn.datasets import load_breast_cancer
import matplotlib.pyplot as plt

# 加载乳腺癌数据集,并将特征矩阵X和目标变量y分开
X, y = load_breast_cancer(return_X_y=True)

# 将特征矩阵X转换为DataFrame,列名为0到29,然后添加目标变量列'y'
df = pd.DataFrame(X, columns=range(30))
df['y'] = y

# 使用f_classif()计算特征与目标变量的方差分析f值
fval = f_classif(X, y)

# 将f值转换为Pandas的Series对象,索引为特征的索引
fval = pd.Series(fval[0], index=range(X.shape[1]))

# 绘制特征与目标变量的方差分析f值,以条形图进行可视化
fval.plot.bar()

# 设置图表标签
plt.xlabel('Feature Index')
plt.ylabel('ANOVA F-value')
plt.title('ANOVA F-value for Each Feature')
plt.show()

【特征重要性揭秘:为什么同一个数据集会有不同结果】_第8张图片

卡方检验(Chi-Square Test)

卡方检验是一种用于确定两个分类变量之间是否存在关联的统计方法。在特征选择中,卡方检验用于衡量一个特征与目标变量之间的独立性。具体来说,卡方检验衡量了两个分类变量之间的观察频数与期望频数之间的差异。得分越高,表明特征与目标变量之间的关联性越强,即特征可能不是独立于目标。

在特征选择过程中,我们可以使用chi2()函数计算每个特征与目标变量之间的卡方统计信息。较高的卡方统计值通常表明特征在目标变量的影响下具有显著性,因此可能是预测目标的有用特征。

# 导入所需库和数据集
from sklearn.feature_selection import chi2
import pandas as pd
from sklearn.datasets import load_breast_cancer
import matplotlib.pyplot as plt

# 加载乳腺癌数据集,并将特征矩阵X和目标变量y分开
X, y = load_breast_cancer(return_X_y=True)

# 将特征矩阵X转换为DataFrame,列名为0到29,然后添加目标变量列'y'
df = pd.DataFrame(X, columns=range(30))
df['y'] = y

# 使用chi2()计算特征与目标变量的卡方统计信息
chi_scores = chi2(X, y)

# 将卡方统计信息转换为Pandas的Series对象,索引为特征的索引
chi_scores = pd.Series(chi_scores[0], index=range(X.shape[1]))

# 绘制特征与目标变量的卡方统计信息,以条形图进行可视化
chi_scores.plot.bar()

# 设置图表标签
plt.xlabel('Feature Index')
plt.ylabel('Chi-Square Score')
plt.title('Chi-Square Score for Each Feature')
plt.show()

【特征重要性揭秘:为什么同一个数据集会有不同结果】_第9张图片

为什么不同的方法会检测到不同的特征?

不同的特征重要性方法之所以会识别出不同的关键特征,是因为它们采用了不同的衡量标准和方法。例如,一些方法侧重于预测准确性,如XGBoost和回归模型,使用内置的特征重要性排列。另一方面,PCA关注于解释数据方差。不同的机器学习模型也有不同的偏好,例如线性模型偏向线性关系,而树模型偏向选择接近树根的特征。此外,一些方法能够捕捉特征之间的交互作用,而其他方法则不能。数据的不稳定性也会导致在不同数据子集上运行同一方法时,重要性值有所不同。超参数的调整,例如PCA的组件数量或树的深度,也会影响结果。因此,选择特征重要性分析方法时,最佳实践包括尝试多种方法以获得更全面的视图,使用集成方法聚合结果,更关注特征的相对顺序而不是绝对值,并且了解差异的原因,以深入了解数据和模型。

你可能感兴趣的:(人工智能,#,学习笔记,python深度学习,人工智能,算法,机器学习,python,开发语言,opencv,pygame)