UFLDL学习笔记4(Self-Taught Learning and Unsupervised Feature Learning)

最近在学习UFLDL Tutorial,这是一套关于无监督学习的教程。在此感觉Andrew Ng做的真的是非常认真。下面把我的代码贴出来,方便大家学习调试。所有代码已经过matlab调试通过。


Self-Taught Learning and Unsupervised Feature Learning练习

这一章实际上是把Sparse Autoencoder和Softmax Regression两章中的代码结合起来。所以在做这一章练习之前,必须把前面章节的练习做了。本章把mnist数据库中数字5-9当做无标记图像,用来训练稀疏编码的第一层权值。训练完毕后把这些权值保存起来。作为基。接下来让数字0-4通过这组基,相当于预处理后的数据。然后对预处理后的数据用Softmax Regression做有监督学习,训练出第二层权值。如下图,原始输入为x,提取特征后得到a,再把a作为softmax的输入进行训练并分类即可。

UFLDL学习笔记4(Self-Taught Learning and Unsupervised Feature Learning)_第1张图片


代码编写

首先把需要的之前的一些.m文件拷过来。

Step 0. 参数设置。无需编写。

Step 1. 读取mnist数据。无需编写。

Step 2. 用Sparse Autoencoder训练第一层权重。代码:

% 该段代码参考Sparse Autoencoder中train.m的代码(UFLDL给出)
addpath minFunc/
options.Method = 'lbfgs'; 
options.maxIter = 400;	  % Maximum number of iterations of L-BFGS to run 
options.display = 'on';
visibleSize = size(unlabeledData,1);
[opttheta, cost] = minFunc( @(p) sparseAutoencoderCost(p, ...
                                   visibleSize, hiddenSize, ...
                                   lambda, sparsityParam, ...
                                   beta, unlabeledData), ...
                              theta, options);

Step 3. 用Sparse Autoencoder训练出的权重预处理有标记数据。feedForwardAutoencoder.m中添加代码:

sampleN = size(data,2); %样本数
activation = sigmoid(W1*data + repmat(b1,1,sampleN));   %用Sparse Autoencoder得到的基预处理数据

Step 4. 训练Softmax分类器。代码:

options2.maxIter = 100; %Softmax训练迭代次数
[inputSize,sampleN] = size(trainFeatures);  %[输入维数,样本数]
[softmaxModel] = softmaxTrain(inputSize, numLabels, lambda, trainFeatures, trainLabels, options2);  %训练Softmax分类器

Step 5. 测试Softmax分类器。代码:

[pred] = softmaxPredict(softmaxModel, testFeatures);    %测试Softmax分类器


运行结果
下面我们将分别绘出Sparse Autoencoder迭代次数10,100,400的图像及准确率。Softmax训练统一迭代100次。
UFLDL学习笔记4(Self-Taught Learning and Unsupervised Feature Learning)_第2张图片

上图准确率:96.60%

UFLDL学习笔记4(Self-Taught Learning and Unsupervised Feature Learning)_第3张图片

上图准确率:97.33%

UFLDL学习笔记4(Self-Taught Learning and Unsupervised Feature Learning)_第4张图片

上图准确率:98.16%

可以看到通过Sparse Autoencoder的无监督学习,第一层权重很好地提取了笔迹信息。注意我们使用的Sparse Autoencoder的网络结构是784-200-784,Softmax的网络结构是784-200-10。按照UFLDL的说法,如果Softmax层用784-(784+200)-10的网络结构,即联合新特征和原始输入,会得到更好的效果。


小结

这一章难度不大。把Sparse Autoencoder和Softmax组合起来即可。本章的方法与普通神经网络方法的区别在于,普通神经网络需要labeled数据,而本章的方法可以用unlabeled的数据。而现实中labeled数据是很少的,这是本章方法优点所在。另外诸如稀疏因子beta,权值正则项lamda等是UFLDL帮我们定好的。实际应用中调节这些参数也是一个比较重要的内容。

你可能感兴趣的:(机器学习,deep,learning,learning,machine,深度学习,无监督学习)