关于HashVectorizer

写在前面:HashVectorizer与tfidf类似,都是讲文本向量化的表示方法,但它节省内存,也更快。当数据集较大时,可以作为tfidf的替代。

关于HashVectorizer_第1张图片
from:https://www.cnblogs.com/pinard/p/6688348.html

说明2:
关于HashVectorizer_第2张图片
来自:https://stackoverflow.com/questions/30024122/what-is-the-difference-between-hashing-vectorizer-and-count-vectorizer-when-eac

使用说明

在使用时,我以from sklearn.feature_extraction.text.HashingVectorizer为例:
1、默认n_features是1048576.也就是2的20次方。所以如果你原来词典长度没有这么大,你想当与在增加维度。你可以手动修改参数

from sklearn.feature_extraction.text import HashingVectorizer
vectorizer = HashingVectorizer()
print(vectorizer.transform(['a very small document']).shape)
(1, 1048576)

small_vectorizer = HashingVectorizer(n_features=5)
print(small_vectorizer.transform(['a very small document']).shape)    
(1, 5)

来自:
https://datascience.stackexchange.com/questions/22250/what-is-the-difference-between-a-hashing-vectorizer-and-a-tfidf-vectorizer
2.至于hash trick是怎么个hash法:
关于HashVectorizer_第3张图片
同样来自第一个链接。

你可能感兴趣的:(NLP,ML)