前言:本人旨在交流代码,细节和原理不清楚的可以留言,以后做完了再整理,现在先放一部分,可以直接使用
1.代码可以直接在c上运行,输入为5*5矩阵,比如数字0:
1 1 1 1 1
1 0 0 0 1
1 0 0 0 1
1 0 0 0 1
1 1 1 1 1
因为训练集合太小,决定用matlab生成大量训练样本,放在后文中。
2.c语言实现代码:(BP推导很简单,不会的自己可以留言,代码中有详细注释)
#include
#include
#include
#include
#define COUNT 50//样本数量
#define IN_NUM 25//输入层神经元数量
#define OUT_NUM 10//输出层神经元数量
#define numHidden 30//隐含层神经元数量
double weight_hidden[IN_NUM][numHidden];//输入层到隐含层的权值
double bias_hidden[numHidden];//隐含层的阈值
double weight_output[numHidden][OUT_NUM];//隐含层到输出层的权值
double bias_output[OUT_NUM];//输出层的阈值
double learnRate = 0.4;//学习数率
double accuracy = 0.001;//最大容许误差0.000001
int maxloopCount = 1000000;//最大学习数率
double fnet(double net)//Sigmoid
{
return 1 / (1 + exp(-net));
}
double dfnet(double net)//Sigmoid导函数 y = s*(s-1)
{
return net * (1 - net);
}
int InitBP()//得到-1到1随机数
{
int i, j;
srand((unsigned)time(NULL));
for (i = 0; i < IN_NUM; i++)
for (j = 0; j < numHidden; j++)
{
weight_hidden[i][j] = rand() / (double)(RAND_MAX)-0.5;
bias_hidden[j] = rand() / (double)(RAND_MAX)-0.5;
}
for (i = 0; i < numHidden; i++)
for (j = 0; j < OUT_NUM; j++)
{
weight_output[i][j] = rand() / (double)(RAND_MAX)-0.5;
bias_output[j] = rand() / (double)(RAND_MAX)-0.5;
}
return 1;
}
int TrainBP(float x[COUNT][IN_NUM], float y[COUNT][OUT_NUM])
{
double delta_hidden[numHidden], delta_output[OUT_NUM];//中间计算量
double output_hidden[numHidden], output_output[OUT_NUM];//隐含层输出 输出层输出
double temp;//中间累加值
double loss;
int i, j, k, n;
for (n = 0; n < maxloopCount; n++)
{
loss = 0;
for (i = 0; i < COUNT; i++)//逐个数据进行计算,整个数据计算一遍后n+1
{
/*前相传播*/
//计算隐含层输出
for (k = 0; k < numHidden; k++)
{
temp = 0;
for (j = 0; j < IN_NUM; j++)
temp += x[i][j] * weight_hidden[j][k];
output_hidden[k] = fnet(temp + bias_hidden[k]);
}
//计算输出层输出
for (k = 0; k < OUT_NUM; k++)
{
temp = 0;
for (j = 0; j < numHidden; j++)
temp += output_hidden[j] * weight_output[j][k];
output_output[k] = fnet(temp + bias_output[k]);
}
//计算误差
for (j = 0; j < OUT_NUM; j++)
loss += 0.5*(y[i][j] - output_output[j])*(y[i][j] - output_output[j]);
/*方向传播阶段*/
//更新输出层的权值
for (j = 0; j < OUT_NUM; j++)
delta_output[j] = (y[i][j] - output_output[j])*dfnet(output_output[j]);
for (j = 0; j < numHidden; j++)
for (k = 0; k < OUT_NUM; k++)
{
weight_output[j][k] += learnRate * delta_output[k] * output_hidden[j];
}
//更新输出层的偏重
for (k = 0; k < OUT_NUM; k++)
bias_output[k] += learnRate * delta_output[k];
//更新隐含层权重
for (j = 0; j < numHidden; j++)
{
temp = 0;
for (k = 0; k < OUT_NUM; k++)
temp += weight_output[j][k] * delta_output[k];
delta_hidden[j] = temp * dfnet(output_hidden[j]);
}
for (j = 0; j
c语言程序运行结果:
很明显,对于输入的矩阵完美判别(受到训练集合大小和图像像素的影响,对于不规则输入有很大误差)
3.训练集合太小,所以我又研究了下matlab手写输入画板,在matlab下新建图形界面,传送门:http://blog.sina.com.cn/s/blog_86a4e34a0102vxra.html,参考了这个代码。matlab手写画板.m文件几个重要函数在传送门直接可以用,使用效果如下:
这是打开的matlab手写输入板,自己写的1,保存为bmp图像,保存按钮的代码如下:(传送门没有)
% --- Executes on button press in pushbutton2.
function pushbutton2_Callback(hObject, eventdata, handles)
% hObject handle to pushbutton2 (see GCBO)
% eventdata reserved - to be defined in a future version of MATLAB
% handles structure with handles and user data (see GUIDATA)
h=getframe(handles.axes1);
imwrite(h.cdata,'output.bmp','bmp');
cla(handles.axes1);
4.对于保存的图像生成二进制,matlab代码如下:
clc;
clear;
filename = 'output.bmp'; %读出源文件
imfinfo(filename) % 查看图像文件信息
imgRgb = imread(filename); % 读入一幅彩色图像
imshow(imgRgb); % 显示彩色图像
imgGray = rgb2gray(imgRgb); % 转为灰度图像
figure % 打开一个新的窗口显示灰度图像
imshow(imgGray); % 显示转化后的灰度图像
% imwrite(imgGray, 'gray.jpg'); % 将灰度图像保存到图像文件
thresh = graythresh(imgGray); %自动确定二值化阈值
I = im2bw(imgGray,thresh); %对图像二值化
ci=imresize(I,[16,16]); %把ai转成256x256的大小
ti =~ci;%对图像取反
figure
imshow(ti)%画取反后的图
figure
imshow(ci)%画压缩后的二进制
figure
imshow(I); %画二进制图
结果如下:
左到右依次为原图、灰度图、压缩后的二进制图,原本二进制图,我们需要的数据就存储在二进制图的数组里面16*16大小,可以弄大一点,这样对于输入的判断会更准。
本文缺陷:1.c语言中读入训练集合和测试集合应改为文件流操作,这样对于大量数据文件的训练和测试会很方便,matlab 生成图像文件和二进制文件可以直接改为文件操作,时间有限感兴趣的可以基于我的demo改,希望能共同学习共同进步!!!
结束语:c语言实现只是我测试的一个东西,我的目的是用ASIC集成电路实现,下一步将在fpga使用verilog语言实现这个手写输入识别!敬请关注!
文中多有瑕疵和漏洞,欢迎指教!