这个程序是在MATLAB中编写,基于BP神经网络的文字符号识别系统的具体实现,该系统既可以实现单一手写字符,也可以实现一连串的字符,而且具有较高的准确率。本系统主要有几个模块,图片输入,图像预处理,字符分割,字符识别。操作的步骤是先使用手机或者用电脑自带的画图软件拍下我们需要识别字符的图片,然后将这个字符图片传输进入电脑软件中,最后使用这个程序代码去识别这个图像。这个系统识别的图片不是局限于在电脑中书写字符,也可以在白纸上书写,具有比较高的识别效果。
我的字符共有2类,一共有36个字符,所以需要设计出可以识别36个字符的神经网络,实现把输入的字符能够在输出准确的识别出来。我选择用一个层隐含层的三层神经网络来实现函数的映射关系,如果隐含层的层数太多的话,训练的时间会增加太多, 太过于复杂。系统中的准则都是一样的,所以可以增加神经元的节点数目来提高识别率。
输入层和输出层参数设置
输入层的作用是把需要识别的字符数据信息传输入神经网络中,而它的节点数目就是输出向量特征向量数目。我选择的训练样本像素都是28×28,它的特征向量都是784维,所以输入层的节点数目是784个。我需要识别的字符种类一共有36种,每一类都需要对应一个分类器,所以输出层的节点数目我设置为36。
隐含层节点数设置
隐含层的节点数目的多少我们并没有准确的算法,满足准确率后尽量的减少隐含层节点数就可以了。如果隐含层节点数目太少的话,网格的训练时间就太短了,收敛还没有到达平滑时就停止训练,学习能力会很低,这满足不了系统的需求。如果隐含层节点数目太多的话,虽然准确率会有所提高,但是训练太长了,所以找到合适的节点数很关键。经过我的多次比较,我选择隐含层的节点数目为200个。
其他设置
对MATLAB中train.m函数参数设置。
net.trainparam.show = 50;,它表示为每间隔50步显示一次训练结果。
net.trainparam.epochs = 1000 ;,它表示为最大训练步数是1000。
net.trainparam.goal = 0.01 ;,它表示为训练目标最小误差是0.01。
net.trainParam.lr = 0.01 ;,它表示为学习速率是0.01。
这个系统的测试结果不仅和图像预处理有关,而且和开始时训练好的网格有关,网格的优劣严重影响着识别准确率的高低。由于我已经训练好了网格,并且把特征存放在model.mat网格中,所以识别的时候可以直接调用网格。用来测试结果的图片我选择的是在纸上写的字符和在电脑上的软件画板上写的字符,我将根据不同的书写方式来进行测试。
上图可见,这36个字符具有较高的识别效果。
clear
clc
close all
%% 训练字符
%% 读取样本数据
DATADIR='.\images\dbx\'; % 待处理图像目录
dirinfo=dir(DATADIR); % 获取图像目录所有文件信息
Name={dirinfo.name}; % 获取文件名
Name(1:2)=[]; % 去除文件夹固有信息
[nouse num_of_char]=size(Name); % 获取类别数量
count = 1;
images = [];
labels = [];
for cnt=1 :num_of_char % for 循环读取所有文件夹
cnt
pathname=horzcat(DATADIR, Name{cnt},'\'); % 把路径和名字融合一起
sub_dirinfo=dir(pathname); % 获取图像目录所有文件信息
sub_Name={sub_dirinfo.name}; % 获取文件名
sub_Name(1:2)=[];
[nouse num_of_image]=size(sub_Name);
for i = 1: num_of_image
image = imread(horzcat(pathname,sub_Name{i}));
% 灰度化
if size(image,3) >1
image = rgb2gray(image);
end
bw = im2bw(image,graythresh(image));
% 最小化外接框
[bw2,BoundingBox1,im0] = edu_imgcrop3(bw,bw,image);
bw = imresize(bw2,[28 28], 'bilinear');
% 把图像拉成向量
bw1 = double(reshape(bw,28*28,1));
images = [images,bw1];
% 字符对应的标签
labels(count) = cnt;
count = count +1;
end
end
% d*n
%% 特征值归一化
[input,settings] = mapminmax(images);
%% 构造输出矩阵
s = length(labels) ;
output = zeros(s,num_of_char) ;
for i = 1 : s
output(i,labels(i)) = 1;
end
output = output';
%% 设置神经网络参数并训练
% Create a Pattern Recognition Network
hiddenLayerSize = 200;
net = patternnet(hiddenLayerSize, 'trainscg');
%设置训练参数
net.trainparam.show = 50;
net.trainparam.epochs = 1000 ;
net.trainparam.goal = 0.01 ;
net.trainParam.lr = 0.01 ;
%开始训练
%这里的 input 矩阵的行表示特征的维度,列代表一个样本;
% output'每一列表示一个样本的标签。
[net,tr] = train(net,input,output) ;
% 显示网络
% view(net)
y = net(input);
% 显示训练cost降低的过程
figure, plotperform(tr)
% 显示分类混淆矩阵
figure, plotconfusion(output,y)
%% 保存网络模型
save model.mat settings net Name
%% 测试
Y = net(input);
[value,pred] = max(Y);
aa = find(pred ==labels);
acc = length(aa)/length(labels)