数据预处理的过程
数据预处理的目的:
1)提高数据质量
2)让数更好地适应特定的挖掘技术或工具
数据预处理工作量占整个数据挖掘工作量的60%
数据清洗主要是删除原始数据集中的无关数据、重复数据,平滑噪声数据,筛选掉与挖掘主题无关的数据,处理缺失值、异常值等。
常用的三种缺失值处理方法:
删除记录:
不处理:
数据插补:
插补方法 | 方法描述 |
---|---|
均值/中位数/众数插补 | 根据属性值的类型,用该属性取值的平均数/中位数/众数进行插补 |
使用固定值 | 将缺失的属性值用一个常量替换 |
最近临插补 | 在记录中找到与缺失样本最接近的样本的该属性作为插补 |
回归方法 | 对带有缺失值的变量,根据已有数据与其有关的其他变量的数据建立拟合模型来预测缺失值的属性值 |
插值法 | 利用已知点建立合适的插值函数f(x),未知值由对应点xi求出的函数值f(xi)近似替代。常用插值法有拉格朗日插值、hermite插值、分段插值、样条插值 |
常用的异常值处理方法:
异常值处理方法 | 方法描述 |
---|---|
删除含有异常值的记录 | 直接将含有异常值的记录删除 |
视为缺失值 | 利用缺失值的处理方法进行处理 |
平均值修正 | 可用前后两个观测值的平均值修正该异常值 |
不处理 | 直接在具有异常值的数据集上进行挖掘建模 |
注意:有些异常值可能蕴含着有用的信息,因此,要先分析异常值出现的可能原因,再判断是否应该舍弃。例如:信用卡盗刷
数据集成是将多个数据源合并存放在一个一致的数据存储位置中的过程。
注意:来自多个数据源的现实实体的表达形式是不一样的,有可能不匹配,要考虑实体识别问题和属性冗余问题,从而将源数据在最底层上加以转换、提炼和集成。
主要处理方法:
实体识别从不同数据源识别出现实世界的实体,它的任务是统一不同源数据的矛盾之处。
常见的实体识别如下:
有些冗余属性可以用相关分析检测。给定两个数值型的属性A和属性B,根据其属性值,用相关系数度量一个属性在多大程度上蕴含另一个属性。
数据变换主要是对数据进行规范化处理,将数据转换成“适当的”形式,以适用于数据挖掘任务及算法的需要。
常见的变换有:
常见的规范化方法:
最小-最大规范化:离差标准化
x ∗ = x − min max − min x^{*}=\frac{x-\min }{\max -\min } x∗=max−minx−min
优点:保留原来数据中存在的关系,方法简单。缺点:若数值集中且某个数值很大,则规范后各值会接近于0,并且相差不大。若将来遇到超过[min,max]的属性值时,会引起系统错误,需要重新确定min和max。
零-均值规范化:标准差标准化
x ∗ = x − x ‾ δ x^{*}=\frac{x-\overline{\mathrm{x}}}{\delta} x∗=δx−x
x ‾ \overline{\mathrm{x}} x为原始数据均值, 为标准差。经过该方法处理的数据的均值为0,标准差为1。
小数定标规范化
x ∗ = x 1 0 k x^{*}=\frac{x}{10^k} x∗=10kx
通过 移动属性值的小数位数,将属性值映射到[-1,1]之间,移动的小数位数取决于属性值绝对值的最大值。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pFHJmFZE-1666254460246)(C:/Users/THUNOEROBOT/AppData/Roaming/Typora/typora-user-images/image-20220827223333617.png)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JtZZHfQ8-1666254460247)(C:/Users/THUNOEROBOT/AppData/Roaming/Typora/typora-user-images/image-20220827223344854.png)]
利用已有的属性集构出新的属性,并加入到现有的属性集当中。
例如:防窃漏电诊断建模时,已有的属性:供入电量、供出电量。理论上供入电量和供出电量应该是相等的。但由于传输过程中存在电能损耗,使得供入电量略大于供出电量。如果该条线路上的一个或者多个大用户存在窃漏电行为,会使得供入电量明显大于供出电量。
线损率 = 供入电量 − 供出电量 供入电量 ∗ 100 % 线损率=\frac{供入电量-供出电量}{供入电量}*100\% 线损率=供入电量供入电量−供出电量∗100%
数据规约产生更小且保持原数据完整性的新数据集,在归约后的数据及上进行分析和挖掘将提高效率。
属性归约常用方法
属性归约方法 | 方法描述 | 方法解析 |
---|---|---|
合并属性 | 将一些旧属性合并为新属性 | 初始属性集 {A1,A2,A3,A4,B1,B2,C} {A1,A2,A3,A4} ->A {B1,B2}->B =>归约后的属性集: {A,B,C} |
逐步向前选择 | 从一个空属性集开始,每次从原来属性 集合中选择一个当前最优的属性添加到 当前属性子集中。直到无法选出最优属性 或满足一定阈值结束为止。 |
初始属性集 {A1,A2,A3,A4,A5,A6} {}=>{A1}=>{A1,A4} =>归约后的属性集 {A1,A4,A6} |
逐步向后选择 | 从一个全属性集开始,每次从当前属性 集合中选择一个当前最差的属性并将其 从当前属性子集中剔除。直到无法选出最差 属性或满足一定阈值结束为止。 |
初始属性集 {A1,A2,A3,A4,A5,A6} =>{A1,A3,A4,A5,A6} =>{A1,A4,A5,A6} =>归约后的属性集 {A1,A4,A6} |
主成分分析 | 用较少的变量去解释原始数据中的大部分变量, 即将许多相关性很高的变量转化成彼此相互独立 或不相关的变量。 |
|
决策树归纳 | 对原始数据做一个分类归纳学习,获得 一个初始的决策树,所有没有出现在这个 决策树上的属性均可以认为是无关属性, 因此,将这些属性从初始集合中删除 就可以获得一个较优的属性子集。 |
初始属性集 {A1,A2,A3,A4,A5,A6} =>归约后的属性集 {A1,A4,A6} |
通过选择替代的、较小的数据来减少数据量
Interpolate:数据插值 ——》缺失值 SciPy
Unique: 去除数据中的重复元素, pandas/numpy
Isnull: 判断是否空值 pandas
Notnull:判断是否非空值 pandas
PCA:对指标变量矩阵进行主成分分析 Scikit-learn
Random: 生成随机矩阵 Numpy