决策树分类器sklearn.tree.DecisionTreeClassifier的使用

sklearn.tree.DecisionTreeClassifier(criterion=’gini’, splitter=’best’, max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, class_weight=None, presort=False)
常用的参数criterion、splitter(样本数少用best、样本多用random取局部最优点)、max_depth(样本数少、特征少可以不管他,如果特征较多、样本较多要限制一下,10-100视情况而定)。
具体的各参数含义可以参考API文档及其他技术博客。
分类器常用的方法:
fit(self, X, y, sample_weight=None, check_input=True, X_idx_sorted=None),按照x、y建立一个决策树分类器。
predict(self, X, check_input=True),输入x,预测y的类别,返回各个样本的预测类别array或者list,shape为[n_samples]
predict_proba(self, X, check_input=True),输入x,返回各样本的各种预测类别的概率值,array of shape = [n_samples, n_classes], or a list of n_outputs

你可能感兴趣的:(建模)