机器学习(数据特征工程--特征提取及其处理)

一、数据得特征抽取:
1、字典特征抽取:sklearn.feature_extraction.DictVectorizer
DictVectorizer(sparse=True,…)
DictVectorizer.fit_transform(X)
X:字典或者包含字典的迭代器
返回值:返回sparse矩阵
DictVectorizer.inverse_transform(X)
X:array数组或者sparse矩阵
返回值:转换之前数据格式
DictVectorizer.get_feature_names()
返回类别名称
DictVectorizer.transform(X)
按照原先的标准转换

def dictvec():
    """
    字典数据抽取
    :return: None
    """
    # 实例化
    dict = DictVectorizer(sparse=False)
    # 调用fit_transform
    data = dict.fit_transform([{'city': '北京','temperature': 100}, {'city': '上海','temperature':60}, {'city': '深圳','temperature': 30}])
    print(dict.get_feature_names())
    print(dict.inverse_transform(data))
    print(data)
    return None

在这里插入图片描述
2、one-hot编码分析
为每一个类生成一个列,每一行数据只有一列为1

3、文本特征抽取:sklearn.feature_extraction.text.CountVectorizer
CountVectorizer(max_df=1.0,min_df=1,…)
返回词频矩阵
CountVectorizer.fit_transform(X,y)
X:文本或者包含文本字符串的可迭代对象
返回值:返回sparse矩阵
CountVectorizer.inverse_transform(X)
X:array数组或者sparse矩阵
返回值:转换之前数据格式
CountVectorizer.get_feature_names()
返回值:单词列表

def countvec():
    """
    对文本进行特征值化
    :return: None
    """
    cv = CountVectorizer()
    data = cv.fit_transform(["人生 苦短,我 喜欢 python", "人生漫长,不用 python"])
    print(cv.get_feature_names())
    print(data.toarray())
    return None

机器学习(数据特征工程--特征提取及其处理)_第1张图片
中文特征值化:参考意义不大,很多词语每篇文章都会大量出现。

def cutword():
    con1 = jieba.cut("今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。")
    con2 = jieba.cut("我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。")
    con3 = jieba.cut("如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。")
    # 转换成列表
    content1 = list(con1)
    content2 = list(con2)
    content3 = list(con3)
    # 吧列表转换成字符串
    c1 = ' '.join(content1)
    c2 = ' '.join(content2)
    c3 = ' '.join(content3)
    return c1, c2, c3

def hanzivec():
    """
    中文特征值化
    :return: None
    """
    c1, c2, c3 = cutword()
    print(c1, c2, c3)
    cv = CountVectorizer()
    data = cv.fit_transform([c1, c2, c3])
    print(cv.get_feature_names())
    print(data.toarray())
    return None

4、TF-IDF:
Tf:term frequency:词的频率
idf:逆⽂档频率inverse document frequency :log(总⽂档数量/该词出现的⽂档数量)
如果某个词或短语在一篇文章中出现的概率高,
并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分
能力,适合用来分类。用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。
TfidfVectorizer(stop_words=None,…)
返回词的权重矩阵
TfidfVectorizer.fit_transform(X,y)
X:文本或者包含文本字符串的可迭代对象
返回值:返回sparse矩阵
TfidfVectorizer.inverse_transform(X)
X:array数组或者sparse矩阵
返回值:转换之前数据格式
TfidfVectorizer.get_feature_names()
返回值:单词列表

def cutword():
    con1 = jieba.cut("今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。")
    con2 = jieba.cut("我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。")
    con3 = jieba.cut("如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。")
    # 转换成列表
    content1 = list(con1)
    content2 = list(con2)
    content3 = list(con3)
    # 吧列表转换成字符串
    c1 = ' '.join(content1)
    c2 = ' '.join(content2)
    c3 = ' '.join(content3)
    return c1, c2, c3

def tfidfvec():
    """
    中文特征值化
    :return: None
    """
    c1, c2, c3 = cutword()
    print(c1, c2, c3)
    tf = TfidfVectorizer()
    data = tf.fit_transform([c1, c2, c3])
    print(tf.get_feature_names())
    print(data.toarray())
    return None

机器学习(数据特征工程--特征提取及其处理)_第2张图片
二、数据特征的处理(sklearn. preprocessing)
通过特定的统计方法(数学方法)将数据转换成算法要求的数据
1、归一化:
通过对原始数据进行变换把数据映射到(默认为[0,1])之间
X^′= x−min/max−min
X′′=X′∗(mx−mi)+mi
作用于每一列,max为一列的最大值,min为一列的最小值,那么X’’
为最终结果,mx,mi分别为指定区间值默认mx为1,mi为0。
sklearn归一化API: sklearn.preprocessing.MinMaxScaler:
MinMaxScalar(feature_range=(0,1)…)
每个特征缩放到给定范围(默认[0,1])
MinMaxScalar.fit_transform(X)
X:numpy array格式的数据[n_samples,n_features]
返回值:转换后的形状相同的array

def mm():
    """
    归一化处理
    :return: NOne
    """
    mm = MinMaxScaler(feature_range=(2, 3))
    data = mm.fit_transform([[90,2,10,40],[60,4,15,45],[75,3,13,46]])
    print(data)
    return None

机器学习(数据特征工程--特征提取及其处理)_第3张图片
注:注意在特定场景下最大值最小值是变化的,另外,最大值与最小值非常容易受异常点影响,所以这种方 法鲁棒性较差,只适合传统精确小数据场景。

2、标准化
通过对原始数据进行变换把数据变换到均值为0,方差为1范围内
X^′= x−mean/σ
作用于每一列,mean为平均值,σ为标准差(考量数据的稳定性)
std成为方差,std= (x1−mean)2+(x2−mean)2+…/n(每个特征的样本数),σ= √std
sklearn特征化API: scikit-learn.preprocessing.StandardScaler
StandardScaler(…)
处理之后每列来说所有数据都聚集在均值0附近方差为1
StandardScaler.fit_transform(X,y)
X:numpy array格式的数据[n_samples,n_features]
返回值:转换后的形状相同的array
StandardScaler.mean_
原始数据中每列特征的平均值
StandardScaler.std_
原始数据每列特征的方差

def stand():
    """
    标准化缩放
    :return:
    """
    std = StandardScaler()
    data = std.fit_transform([[ 1., -1., 3.],[ 2., 4., 2.],[ 4., 6., -1.]])
    print(data)
    return None

机器学习(数据特征工程--特征提取及其处理)_第4张图片
注:在已有样本足够多的情况下比较稳定,适合现代嘈杂大数据场景。

3、缺失值
sklearn缺失值API: sklearn.preprocessing.Imputer/sklearn.impute.SimpleImputer
Imputer(missing_values=‘NaN’, strategy=‘mean’, axis=0)
完成缺失值插补
Imputer.fit_transform(X,y)
X:numpy array格式的数据[n_samples,n_features]
返回值:转换后的形状相同的array

numpy的数组中可以使用np.nan/np.NaN来代替缺失值,属于float类型;
如果是文件中的一些缺失值,可以替换成nan,通过np.array转化成float
型的数组即可

def im():
    """
    缺失值处理
    :return:NOne
    """
    X1 = np.array([[1, 2, np.nan],
                   [4, np.nan, 6],
                   [np.nan, 8, 9]])
    imp = SimpleImputer(missing_values=np.nan, strategy='mean')
    print(imp.fit_transform(X1))

机器学习(数据特征工程--特征提取及其处理)_第5张图片

你可能感兴趣的:(机器学习(数据特征工程--特征提取及其处理))