scikitlearn/theano多分类问题详解

入门先看下面两个网址
二分类:
http://python.jobbole.com/82208/
多分类:
http://blog.csdn.net/han_xiaoyang/article/details/50521072

下面说说改进及注意点:
上述博客的数据例子都是根据自己的意思随机生成的。
这边用iris数据进行扩展
由于 iris数据是像下面这样的:
5.1,3.5,1.4,0.2,Iris-setosa
4.9,3.0,1.4,0.2,Iris-setosa
。。。。。。。
7.0,3.2,4.7,1.4,Iris-versicolor
6.4,3.2,4.5,1.5,Iris-versicolor
。。。。。。。
6.3,3.3,6.0,2.5,Iris-virginica
5.8,2.7,5.1,1.9,Iris-virginica
7.1,3.0,5.9,2.1,Iris-virginica

一共150行,每行4个特征外加1个类别,共3种类别
所以神经网络作如下设置
class Config:
    nn_input_dim = 4  # 4个特征
    nn_output_dim = 3  # 3种类
    # Gradient descent parameters (I picked these by hand)
    epsilon = 0.01  # learning rate for gradient descent
    reg_lambda = 0.01  # regularization strength

最后一列代表花的种类,原数据是用名称代替的,这也是我们在多分类中经常碰到的。所以这里要转换为数字。
所以我们在程序里需要进行改动,如下:
t = np.zeros(len(labelMat))
    #将target阵列中特定元素的位置设置为对应整数(真简洁)
    t[labelMat == 'Iris-setosa'] = 0   #注意这里只能是0开始定义
    t[labelMat == 'Iris-versicolor'] = 1
    t[labelMat == 'Iris-virginica'] = 2
model = build_model(X, t, 5, print_loss=True)

注意这里的0,1,2。我最开始想弄随便弄个什么数,比如1,2,3的,反正都是求概率。后来发现行不通。
最后又仔细研读了下代码
注意程序里有个probs,
这是个概率矩阵,比如这里就是150*3的矩阵
每一行的3个数分别代表了属于三个类的概率。
虽说这3个概率跟具体的类别用什么数字或者符号代替没啥关系。但是注意到,要想获得者三个概率,得用索引来从矩阵 probs中获得啊。。。。所以必须从0开始依次增大。。。。

于是想起来以前Theano中一些深度学习的例子。原例子是对mnist进行数字识别的。是多分类。不过很巧的是,它识别的数字种类正好是0,1,2,3,4...是从0开始的,也就没仔细想。
于是又用iris数据集在Theano的DBN上跑了一遍,还是得把类别转换为0,1,2才能跑,不能是其他数字。道理和上面类似。
说到这里,再扯远一点。原来DBN的例子中值是训练加批量测试,没有给出具体的预测/分类方法。
于是我自己改了一下:
在test_DBN()函数中将验证好的模型存为 best_DBN_model.pkl。然后在预测函数中,如下设置
DBN_model = pickle.load(open('best_DBN_model.pkl'))

    # compile a predictor function
    predict_model = theano.function(
            inputs=[DBN_model.x],
            outputs=DBN_model.logLayer.y_pred
        )
注意这里 DBN_model.x这样设置是因为def __init__函数中进行了如下设置
self.x = T.matrix('x') 
self.y = T.ivector('y')
x即特征矩阵集,y即标签矩阵集
而这里DBN网络最上面是由一层logistic回归输出的(准确地说是softmax)在logistic_sgd.py文件中有如下定义:
self.y_pred = T.argmax(self.p_y_given_x, axis=1)
这就跟我们上文中神经网络代码中的return np.argmax(probs, axis=1)一样了。
最后再说一下DBN函数中调参数就调下面这段就行了,不用调初始化函数中的了。
dbn = DBN(numpy_rng=numpy_rng, n_ins=4,
              hidden_layers_sizes=[10,10,10,10,10,10],
              n_outs=3)
其实跟神经网络一样设置。输入输出。以iris数据为例,特征是4个, n_ins=4,种类是3个, n_outs=3。
[10,10,10,10,10,10]代表我们用了6层RBM,每层RBM用的10个节点。

你可能感兴趣的:(并行计算与分布式计算)